"Oh, and sing of me, O Muse, poor born-again-against-his-will Hockenberry" Ilium, Chapter 1 The plains of Ilium

Was sind schon 3000 Jahre mehr oder weniger, wenn man über die großen Geschichten der Menschheit spricht? Das mag Dan Simmons gedacht haben, bevor er Homers Trojanischen Krieg (Iliad) von vor etwa 3000 Jahren nahm und diesen 1:1 in circa 3000 Jahren auf dem Mars von selbsternannten Göttern neu inszenieren ließ. Das ist einer der drei Handlungsstränge in Simmons‘ Buch „Ilium“, über den wir in dieser Episode sprechen werden. Gleichzeitig feiern genmanipulierte Menschen auf der Erde dank „Farcaster“-Teleportation und dienender Servix-Roboter ein lustvolles Leben. Im dritten Strang brechen Moravecs von den äußeren Planeten des Sonnensystems auf, um den bedrohlichen Quantenfluktuationen auf dem Mars auf den Grund zu gehen. Diese KI-Androiden wurden einst von den Menschen der Erde als Forscher ausgesandt und haben sich seit vielen Jahrhunderten vollständig autonom auf den Monden des Jupiters weiterentwickelt und vermehrt. In Simmons‘ Space Opera gibt es eigentlich keine Menschen mehr wie uns. Und gerade deshalb ist es ein Buch über die Menschlichkeit. Inspiriert von einem Essay im „New Yorker“ der frühen 1990er Jahre, in dem ein Scholar reflektiert, ob wir uns heute wirklich mit den Akteuren in Homers „Iliad“ identifizieren und verbinden können, verlegt Simmons diese Geschichte in eine Zukunft, in der selbst die Götter diese Geschichte nicht zu verstehen scheinen. Deshalb beleben sie den PhD-Gelehrten Hockenberry aus dem frühen 21. Jahrhundert wieder, um zu berichten, ob das, was auf dem Mars geschieht, wirklich dem Original entspricht. Die Menschen auf der Erde können nicht lesen und leben im Delirium der täglichen Lust, bis Harman sich das Lesen selbst beibringt. Es sind zwei Moravecs, die miteinander über Shakespeares Sonette und Proust reden, die noch am ehesten die Kulturgeschichte der Menschheit leben. Alle drei Stränge nähern sich einander an und treffen in einem furiosen, gewaltvollen Finale aufeinander. Unbedingt lesenswert. 10 von 10. Auch weil Simmons so unglaublich liebevoll und virtuos mit Sprache umgehen kann.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:00–0:00:01
Läuft es schon?
Florian Clauß
0:00:01–0:00:02
Ist.
Micz Flor
0:00:02–0:00:03
Alles abgerissen jetzt?
Florian Clauß
0:00:03–0:00:08
Ja. Leider. Leider, leider.
Micz Flor
0:00:09–0:00:12
Wollen wir... Achso, klatschen.
0:00:16–0:00:21
Jetzt wäre die Frage, soll ich einfach mal was vorlesen vorher in Englisch,
0:00:21–0:00:24
was wir später als Einstieg nehmen, oder wollen wir erst Hallo sagen?
0:00:24–0:00:28
Immer erst Hallo. Okay, gut. Aber dann sagst du oder ich.
Florian Clauß
0:00:29–0:00:37
Du. Hallo und herzlich willkommen bei Eigentlich Podcast Episode 45.
0:00:39–0:00:45
Wir sind der Podcast, bei dem wir im Laufen reden und laufend reden. Neben mir läuft Mitch.
Micz Flor
0:00:45–0:00:46
Hallo.
Florian Clauß
0:00:46–0:00:53
Und er wird auch gleich unser Thema, sein Thema vorstellen. Und ich bin Flo.
0:00:55–0:01:02
Und wie ihr an den Nebengeräuschen hört, laufen wir entlang einer Straßenbahnstrecke.
0:01:03–0:01:05
Wir sind hier in Mitte unterwegs.
0:01:07–0:01:14
Und die Eigenschaft von unserem Podcast ist, dass wir während der eine dem anderen ein Thema vorstellt,
0:01:14–0:01:20
wir eine Strecke laufen, einen Spaziergang machen, machen, weil der ganze Podcast
0:01:20–0:01:26
ist so geboren aus unseren Hüttenwanderungen, bei denen wir auch immer wieder
0:01:26–0:01:28
irgendwelche Themen gewälzt haben.
0:01:28–0:01:32
Und wir dachten, wir machen ein Format draußen, einen Podcast.
0:01:32–0:01:36
Und sind jetzt schon bei Episode 45.
0:01:36–0:01:39
Ich finde es unglaublich, dass wir schon so viele Episoden haben.
0:01:39–0:01:43
Ja, bald zwei Jahre, Mitch. Das ist ja echt eine Zeit.
0:01:45–0:01:49
Ja, ich bin gespannt, was du mitgebracht hast.
Micz Flor
0:01:49–0:01:50
Ja, ich habe mitgebracht.
0:01:52–0:01:53
Weißt du Bescheid?
Florian Clauß
0:01:53–0:01:57
Hast du mir was erzählt? Du hast mir was gesagt darüber. Du hast das Thema auch
0:01:57–0:01:59
schon in deiner letzten Folge etwas angesprochen.
0:02:00–0:02:02
Und ich glaube, du machst eine Serie draus.
Micz Flor
0:02:03–0:02:07
Ja, ich mache mir eine Serie draus. Und habe jetzt beim ersten Mal einfach angefangen,
0:02:07–0:02:10
beim zweiten Mal versucht, mich so ein bisschen vorzubereiten.
0:02:10–0:02:11
Und dann entsteht gleich so ein Leistungsdruck.
0:02:13–0:02:18
Aber den kann ich vielleicht wieder abschütteln, weil ich versuche einfach,
0:02:18–0:02:23
mich dann frei zu bewegen. Es gibt aber so zwei, drei Sachen,
0:02:23–0:02:27
die ich als Text mitgebracht habe und die ich dann vielleicht auch vorlesen werde.
0:02:27–0:02:30
Es geht weiter um Dan Simmons.
Florian Clauß
0:02:31–0:02:33
Ah, der Autor Dan Simmons.
Micz Flor
0:02:33–0:02:37
Der Autor Dan Simmons. Und für die zweite Folge habe ich mir jetzt vorgenommen,
0:02:37–0:02:44
dass wir über das, über Ilium sprechen.
0:02:44–0:02:48
Das ist ein 800-Seiten-Roman, den ich dir geschenkt habe.
0:02:48–0:02:51
Und wo du eben beim letzten mal auch schon so ein paar sachen so
0:02:51–0:02:57
toll erzählt hast habe ich gedacht das ist doch ganz gut denn so weil bei denen
0:02:57–0:02:59
die dann später kommen da bin ich wahrscheinlich mehr am alleine erzählen aber
0:02:59–0:03:03
hier ist die hoffnung dann dass du mich noch so ein bisschen begleitet und ich
0:03:03–0:03:09
auch noch an sachen aus diesem sehr komplexen aber wirklich fesselnden finde großartigen,
0:03:12–0:03:14
roman erinnerst und die einen bringen kannst.
Florian Clauß
0:03:14–0:03:19
Ja okay ich muss mal gucken was ich noch erinnern kann diese.
Micz Flor
0:03:19–0:03:26
Krake zum beispiel hat es zum letzten mal wessen nicht gehört hat folge 43 die
0:03:26–0:03:30
krake ganz vielleicht noch mal erzählen und die kleinen grünen männchen und
0:03:30–0:03:33
so weiter und so fort und eine,
0:03:34–0:03:39
Und eine Sache, die ich sehr stark mit diesem Buch auch verbinde, ist,
0:03:39–0:03:47
ich hatte das Buch schon länger so auf dem E-Reader und dann habe ich irgendwann
0:03:47–0:03:50
einfach mal angefangen zu lesen.
0:03:50–0:03:54
Und dann hat es mich immer mehr gefesselt.
0:03:55–0:04:00
Und beim E-Reader hat man dann unten die Möglichkeit, sich anzuzeigen,
0:04:00–0:04:06
wie viele Prozente oder wie viele Seiten des Buches oder des Kapitels oder so.
0:04:06–0:04:09
Also unterschiedliche Formen, wie man das sich anzeigen kann.
0:04:09–0:04:13
Und ich hatte dann immer nur eingestellt, wie lange ich noch im Kapitel bin.
0:04:13–0:04:15
Noch vier Stunden, 17 Minuten im Kapitel.
Florian Clauß
0:04:16–0:04:17
Ach, du hast Zeit eingestellt?
Micz Flor
0:04:17–0:04:19
Nee, das macht er automatisch.
Florian Clauß
0:04:19–0:04:19
Okay.
Micz Flor
0:04:20–0:04:24
Und dann habe ich irgendwann mal umgestellt auf das Buch.
0:04:24–0:04:27
Also wie viel Prozent des Buchs habe ich schon gelesen. Und dann habe ich schon
0:04:27–0:04:31
ewig mich in diese Welt hineingelesen. War total begeistert.
0:04:31–0:04:35
Und dann war es so bei 12 Prozent, 17 Prozent. Und dann habe ich auf einmal
0:04:35–0:04:37
gedacht, wie soll ich das alles noch?
0:04:38–0:04:42
Das ist ja riesig. Das ist ja wirklich gigantisch. Das würde ich alles noch lesen.
0:04:44–0:04:46
Und interessanterweise war ich dann immer so gefesselt, als es dann irgendwann
0:04:46–0:04:51
bei 80 Prozent durchgeht, oh ne, bitte nie aufhören. Ich würde wirklich.
Florian Clauß
0:04:53–0:04:59
Du hast mir das ja als Taschenbuch geschenkt, das ist ja auch mindestens fünf Zentimeter dick.
0:04:59–0:05:01
Das ist wahnsinnig schwer.
Micz Flor
0:05:01–0:05:05
Ja, das war auch das Verrückte, weil ich nämlich, das ist im Kontrast zum eReader,
0:05:05–0:05:10
als ich dir das dann irgendwie auf irgendwo online gebraucht, erstanden habe,
0:05:11–0:05:15
dann habe ich mir das angeschaut und gedacht, hätte ich das als so ein Buch
0:05:15–0:05:18
in der Hand gehabt, ich hätte nie angefangen das zu lesen.
0:05:18–0:05:22
Das ist einfach wirklich so gigantisch.
0:05:23–0:05:29
Also wenn du dann halt diese 800 Seiten in der Hand hast, das ist schon eine Hausnummer.
Florian Clauß
0:05:29–0:05:37
Das ist eine Hausnummer, eine Masse. Das ganze Buch ist auch mehr oder weniger,
0:05:37–0:05:39
hat verschiedene Storystränge,
0:05:41–0:05:45
die es dann so auffällt und ich weiß auch noch, dass ich so,
0:05:45–0:05:48
also man mag ja dann immer bestimmte Storylines und andere nicht so,
0:05:48–0:05:52
dass ich bei denen, die ich nicht so mochte, dann immer vorgeblendet habe und
0:05:52–0:05:54
gucke, wie lange dauert es noch?
Micz Flor
0:05:55–0:06:00
Da bin ich mal gespannt, welche du nicht so gut findest und welche du gut findest.
Florian Clauß
0:06:00–0:06:01
Aber ich fange mal an.
Micz Flor
0:06:01–0:06:06
Jetzt einfach vorzustellen. Ich habe gleich was zum Lesen mitgebracht.
0:06:06–0:06:11
Und auch wenn wir laufend reden und reden beim Laufen.
Florian Clauß
0:06:11–0:06:12
Und auch vorlesen manchmal.
Micz Flor
0:06:13–0:06:16
Laufend lesen ist schwieriger. Da müssen wir vielleicht kurz.
Florian Clauß
0:06:16–0:06:20
Stehen. Ja, da bleiben wir hier stehen. Wir sind jetzt gerade hier in der Dürksenstraße.
0:06:20–0:06:25
Und hier gibt es eine gute Möglichkeit, auch sich mal irgendwo unterzustellen.
0:06:26–0:06:29
Und ein Stück aus dem Roman vorzulesen.
Micz Flor
0:06:29–0:06:30
Ja, die ersten zwei.
Florian Clauß
0:06:30–0:06:31
Wir können das hier mit Hall machen, oder?
Micz Flor
0:06:32–0:06:32
Hall. Ja, okay.
Florian Clauß
0:06:33–0:06:34
Hei. Mal gucken, ob ich das in.
Micz Flor
0:06:34–0:06:34
Tritt sehe.
0:06:37–0:06:43
Und zwar sind das wirklich die ersten Zeilen des Romans.
0:06:43–0:06:47
Und ich finde die aber ganz toll, weil mir jetzt erst klar geworden ist,
0:06:47–0:06:50
wie schön die so schon alles öffnen, was da so passiert.
0:06:51–0:06:53
Und ich muss das jetzt ein bisschen pathetisch machen.
Florian Clauß
0:06:53–0:06:53
Gerne.
Micz Flor
0:06:54–0:07:02
Rage. Sing, O Muse of the Rage of Achilles and Peleus' son, murderous man-killer, fated to die.
0:07:02–0:07:09
Sing of the rage that cost the Archaeans so many good men and sent so many vital
0:07:09–0:07:13
hearty souls down to the dreary house of death.
0:07:14–0:07:19
And while you're at it, oh Muse, sing of the rage of the gods themselves,
0:07:19–0:07:25
so petulant and so powerful here on the new Olympus.
0:07:25–0:07:30
And of the rage of the post-humans, dead and gone, though they might be,
0:07:30–0:07:36
and of the rage of those few true humans left, self-absorbed and useless,
0:07:36–0:07:38
though they may have become.
0:07:39–0:07:45
While you are singing, O Muse, sing also of the rage of those thoughtful,
0:07:46–0:07:52
sentient, serious, but not so close to human beings out there dreaming under the ice of Europa.
0:08:14–0:08:22
Das sind die ersten Zeilen in Ilium. Chapter 1.
0:08:25–0:08:27
Und ich finde es halt so toll, weil eben diese Stränge und alles,
0:08:27–0:08:30
also man liest es und man weiß gar nicht, worum es hier geht.
0:08:30–0:08:33
Was sind Post-Humans, was sind die neuen Götter, was ist Olympus auf Mars?
0:08:34–0:08:37
Aber es macht eben einfach diese ganzen Handlungsstränge schon auf.
0:08:37–0:08:44
Und rückblickend ist es so ein bisschen so wie, ich weiß gar nicht,
0:08:44–0:08:51
irgendwie so das Gefühl, als ob man da doch schon eben den Teppich ausgerollt bekommt.
0:08:51–0:08:56
Auch wenn man das Gefühl hat, dass man nicht weiß, worum es geht.
0:08:56–0:08:58
Aber worum geht es? Rage. Es geht um Rage.
0:08:59–0:09:03
Es geht um Achilles und Peleus. Es geht um die Iliad von Homer.
0:09:04–0:09:10
Das ist ein ganz, ganz tragender Teil des ersten Drittels auf alle Fälle,
0:09:10–0:09:13
um da wirklich auch so reinzukommen.
0:09:15–0:09:22
Es geht um die Götter, in Anführungszeichen Götter, die halt eben auch in der
0:09:22–0:09:27
Iliad vorkommen, die ja mit sich selbst auch dann immer so gegenseitig versuchen,
0:09:27–0:09:30
irgendwie Zeiten zu beziehen im Krieg um Troja.
0:09:31–0:09:36
Und die allerdings in diesem Buch nicht diese Götter sind, das werden wir dann später noch erfahren.
0:09:37–0:09:40
Aber es sind halt irgendwie neue Götter, von denen man gar nicht so du genau
0:09:40–0:09:43
weißt, wo kommen die her, was machen die da, was ist da irgendwie los.
0:09:45–0:09:49
Dann singen über die Post-Humans.
0:09:49–0:09:53
Es gibt Humans und es gibt Post-Humans. Aber diese Post-Humans,
0:09:53–0:09:55
die werden die ganze Zeit gesetzt, über die wird gesprochen,
0:09:56–0:10:00
aber wir erleben die gar nicht, im ganzen Buch nicht. Und das steht hier auch schon drin.
0:10:01–0:10:04
Du verbringst lange Zeit in dem Buch, damit zu sagen, diese Post-Humans möchte
0:10:04–0:10:05
ich jetzt endlich mal kennenlernen.
0:10:06–0:10:10
Aber hier steht es ja schon, post-humans dead and gone, though they might be.
0:10:10–0:10:14
Wir wissen, wir haben keine Beweise für ihre Existenz, da steht es schon.
0:10:14–0:10:17
Und trotzdem hat man 800 Seiten lang darauf gewartet.
0:10:19–0:10:22
And the rage of those true humans. Dann gibt es also noch wahre Menschen.
0:10:22–0:10:28
Es gibt also Götter, es gibt diese griechischen Kämpfer, es gibt Post-Humans, es gibt wahre Menschen.
0:10:29–0:10:33
Und dann gibt es dieses Sentient, also diese sich selbstbewussten,
0:10:33–0:10:36
serious but not so human beings.
0:10:36–0:10:41
Das sind die Moravex, das sind Roboter, biotechnische Entitäten,
0:10:41–0:10:47
die sich selbst fabrizieren in den Jupiter, im Jovian System.
0:10:47–0:10:48
Da weißt du dann wieder mehr.
0:10:49–0:10:51
Das steht aber dann auch schon da.
0:11:24–0:11:31
Also ich, der Erzähler, bin wiedergeboren, heiße Hockenberry.
0:11:32–0:11:37
Poor dad Thomas Hockenberry, PhD. Ich bin also Doktorand. Ich habe einen Doktor.
0:11:38–0:11:40
Thomas Hockenberry, der Hockenbusch
0:11:40–0:11:42
von seinen Freunden, die auch alle schon tot sind, genannt wird.
0:11:43–0:11:49
Und die alle von einer Welt kommen, die ist quasi quasi turned to dust on a
0:11:49–0:11:52
world long since left behind. Also diese Welt gibt es sowieso nicht mehr.
0:11:53–0:11:57
Das heißt, wir haben jetzt quasi hier diese ganzen Handlungsstränge auch schon
0:11:57–0:11:59
irgendwie so aufgefächert.
0:11:59–0:12:04
Und nicht nur das, sondern wir haben auch, und ich kann das vielleicht nicht
0:12:04–0:12:09
so gut rüberbringen, aber wir haben halt auch eine Sprache, und das finde ich ja bei Dan Simmons,
0:12:10–0:12:15
der hat unglaublich tolle Sprache, der kann einfach ganz toll schreiben.
0:12:15–0:12:19
Und ich finde halt dieses Sing, O Muse of the Rage of Achilles und so,
0:12:19–0:12:23
da ist halt so ein Rhythmus drin, wo man wirklich denkt, das ist halt so große,
0:12:23–0:12:27
bombastische, pathetische Literatur eben.
0:12:28–0:12:30
Iliad irgendwie, was ja auch Gesänge sind eigentlich.
0:12:33–0:12:37
Und dann aber auch diese Frage, was...
0:12:39–0:12:42
Wer spricht da mit mir? Du willst ja wissen, wer ist Erzähler oder Erzählerin.
0:12:42–0:12:45
Was ist diese Stimme, mit der ich angesprochen werde als Lesender?
0:12:46–0:12:48
Und das bricht dann hinten so weg.
0:12:49–0:12:54
Eben heißt es noch, Dreaming under the eyes of Europa, Dying in the sulfur ash of Io.
0:12:55–0:12:58
Und dann kommt halt so, Oh, when sing of me, oh muse, Poor born again against
0:12:58–0:13:02
his will, Hockenberry, poor dead, Thomas Hockenberry, Ph.D., Hockenbusch.
0:13:02–0:13:06
Ich merke jetzt irgendwie halt dieses Jambische oder was auch immer. Total zerbröselt.
0:13:06–0:13:10
Und das finde ich halt auch so großartig, weil genau das auch irgendwie dann
0:13:10–0:13:16
schon ein Stage-Setting ist für die Sprache, die Simmons dann in diesem Buch auch benutzt.
0:13:17–0:13:20
Und das wollte ich jetzt hier erstmal so in die Welt stellen.
Florian Clauß
0:13:20–0:13:25
Ja, sehr schön. Also ein bisschen wie bei Monty Python,
0:13:25–0:13:30
bei Flying Circus gibt es ja dann auch immer diese Zwischenspiele,
0:13:30–0:13:35
die so Trickfilm-Ästhetik, aber so viktorianisch aufgeblasen mit irgendwelchen
0:13:35–0:13:38
komischen Accessoires und Details,
0:13:39–0:13:46
ja, und die dann halt auch so woop woop woop, dann läuft irgendeine Zunge weg oder so.
Micz Flor
0:13:46–0:13:48
Kupferstiche und nachkollorierte Sachen.
Florian Clauß
0:13:50–0:13:58
Kann ich nachvollziehen. Und ja, der Hockenberry, oder wie heißt der? Thomas Hockenberry.
0:13:59–0:14:03
Der ist in irgendeiner Form wiederbelebt worden,
0:14:03–0:14:11
also er ist ja aber auch gleichzeitig so ein ganz fühlendes wesen er war dann
0:14:11–0:14:14
ist er gegen klo ich weiß nicht genau.
Micz Flor
0:14:14–0:14:19
Also es ist so ich werde jetzt ganz kurz für die die vielleicht sogar diesen
0:14:19–0:14:24
podcast hören weil sie was über ilium lernen wollen was sie nicht woanders schon
0:14:24–0:14:27
gehört oder gelesen haben möchte ich eine hypothese in den raum stellen die
0:14:27–0:14:29
ich so noch noch nicht gefunden habe,
0:14:29–0:14:33
die ich aber irgendwie, die sich mir so aufdrängt.
0:14:34–0:14:38
Also es ist ja dann so oft geht es jetzt ja nicht darum, was will der Autor
0:14:38–0:14:43
uns sagen und erzählen, sondern was macht das mit uns oder welche Blickwinkel auf diesen Stoff,
0:14:44–0:14:50
uns ein interessantes Rätsel auf. Und da finde ich das interessant,
0:14:50–0:14:56
dass in dieser Einleitung auch wir schon hören, worum es geht.
0:14:56–0:15:02
Es geht also um Charaktere aus Iliad von Homer.
0:15:03–0:15:10
700 oder 800 Jahre vor Christus geschrieben, gilt als einen der wichtigsten.
0:15:13–0:15:16
Literaturprodukte der Menschheit, was ich auch wiederum interessant finde,
0:15:16–0:15:22
weil halt nach Expanse, was wir schon gemacht haben, wo ja auch dann Ganymede
0:15:22–0:15:23
und Io und Europa so vorkommen,
0:15:24–0:15:28
was ich eh finde, dass halt Expanse und Ilium so Parallelen haben,
0:15:28–0:15:35
dass halt diese Erde als Zentrum der Kultur und einziger Ort der Kultur dann
0:15:35–0:15:37
sich irgendwie auf einmal so komisch anfühlt.
0:15:37–0:15:41
Iliad, okay, Homer. mehr aber die
0:15:41–0:15:44
sind drin das sind keine echten menschen das sind figuren von
0:15:44–0:15:54
homer beschrieben oder erfunden oder aufgegriffen so das zweite jetzt müssen
0:15:54–0:16:00
wir mal gucken es halt dass ich noch mal richtig durchgehen also da haben wir
0:16:00–0:16:03
charaktere die in dem buch vorkommen die keine Menschen sind.
0:16:07–0:16:14
Also diese Götter, die auch darin vorkommen, wirklich als Charaktere von diesen
0:16:14–0:16:18
Göttern, die sind alle auf dem Planeten Mars,
0:16:19–0:16:23
weil die sind ja im Olymp und wo ist in unserem Sonnensystem Olymp?
0:16:24–0:16:30
Auf dem Mars, Mount Olympus. Das ist doch, glaube ich, der größte Berg in unserem Sonnensystem.
Florian Clauß
0:16:31–0:16:35
Ja, ich glaube, der ist jetzt 20 Kilometer hoch oder so.
Micz Flor
0:16:35–0:16:43
Genau, und auf diesem Olymp wohnen die Götter. Die alten Götter aus.
0:16:46–0:16:50
Und diese Götter sind natürlich keine Menschen. Wir wissen nicht genau,
0:16:50–0:16:53
was es sind. Also es wird halt irgendwie dann auch so diskutiert, die sind größer.
0:16:54–0:16:57
Aber wir erfahren nicht wirklich, was das ist in diesem Buch,
0:16:57–0:16:58
aber es sind auch keine Menschen.
0:17:01–0:17:06
Dann diese Posthumans, die sind ja im Namen nach schon keine Menschen mehr.
0:17:09–0:17:14
Das heißt, die eh nicht vorkommen, über die aber gesprochen wird.
0:17:14–0:17:19
Die sind keine Menschen. Und dann gibt es aber auch noch diese True Humans,
0:17:19–0:17:22
die paar, die noch da sind, von denen wir aber auch relativ schnell erfahren,
0:17:22–0:17:27
dass es nicht wirklich Menschen in unserer Art sind, sondern zum Beispiel sind
0:17:27–0:17:32
das Menschen, die jetzt auf so einer kulturellen Ebene einfach alles losgelassen haben.
0:17:32–0:17:37
Die können nicht mehr lesen, die sind auch genetisch modifiziert zum Beispiel,
0:17:37–0:17:43
haben die Teile von Motten-Genen in ihren Körpern, was dazu führt,
0:17:43–0:17:48
dass die Frau den Samen von ganz vielen Männern aufnehmen kann und später kann
0:17:48–0:17:51
sie dann selber entscheiden, wer der Vater ihrer Kinder wird.
0:17:51–0:17:55
Also es ist so Motten-Gene-Grimm. Das heißt, diese True-Human sind auch genetisch
0:17:55–0:18:02
manipuliert, die werden genau 100 Jahre alt Und danach ziehen sie dann zu diesen
0:18:02–0:18:04
Post-Humans angeblich auf zwei Ringe.
0:18:05–0:18:08
Das gibt so zwei Ringebene, die die Erde umkreisen, die auch sichtbar sind.
0:18:09–0:18:14
Das heißt, genau 100 werden ist jetzt auch nicht unbedingt eine menschliche
0:18:14–0:18:17
Qualität, die wir als menschlich wahrnehmen würden.
Florian Clauß
0:18:18–0:18:20
Die feiern dann immer ihren Dekadengeburtstag.
Micz Flor
0:18:20–0:18:26
Genau, alle 20 Jahre kriegen sie so einen Fix-Up. da gehen sie dann auch einfach
0:18:26–0:18:30
da werden sie einfach nur mal wieder regeneriert in einer gewissen form die.
Florian Clauß
0:18:30–0:18:32
Altern auch nicht nur.
Micz Flor
0:18:32–0:18:38
Die alter nicht also und das ist dann auch so ein bisschen einer von diesen
0:18:38–0:18:44
nicht macguffins aber einer von diesen,
0:18:48–0:18:51
Jetzt sind wir gleich am Alex, das ist ganz grob. Das heißt,
0:18:51–0:18:55
das, was hier als True Humans benannt wird, ist auch nichts, was wir irgendwie...
0:18:56–0:19:00
Die sind am Anfang noch so ein bisschen langweilig, aber da werden wir auch
0:19:00–0:19:01
gleich noch darauf zu sprechen kommen.
0:19:02–0:19:06
Und dann gibt es auch noch die Not-So-Human, werden sie genannt,
0:19:06–0:19:08
die du schon benannt hast.
0:19:08–0:19:19
Also Orpho of Io und Mahnmut von Europa. Europa, das sind die beiden Moravex,
0:19:19–0:19:22
so heißen die, benannt nach dem Erfinder der Moravex.
0:19:23–0:19:31
Das waren ganz früher mal Androiden, so biotechnische Wesen oder eigentlich
0:19:31–0:19:33
wirklich eher Androiden, es wurden dann Wesen.
0:19:33–0:19:43
Die wurden ins Sonnensystem von der Erde rausgeschickt, um das äußere Sonnensystem zu erkunden.
0:19:46–0:19:50
Sind dann aber da irgendwie so ansässig geworden, haben sich selber hergestellt.
0:19:50–0:19:55
Also die basteln sich so selbst und sind eben auch KI-mäßig die,
0:19:56–0:20:02
die in gewisser Weise noch vieles Menschliche weitertragen, als ob die die Forscher
0:20:02–0:20:03
der Menschlichkeit sind.
0:20:03–0:20:06
Das sind eben diese beiden, die ich jetzt angesprochen habe,
0:20:06–0:20:12
die du beim letzten Mal schon erwähnt hast, dass die über Proust und Shakespeare's
0:20:12–0:20:15
Sonnette sich unterhalten, die ganze Zeit angekriegt.
0:20:17–0:20:21
Die sehen allerdings dann zum Beispiel Aufruhr auf IO.
0:20:22–0:20:24
Das ist halt so eine Maschine, sieht ein bisschen aus wie eine Krabbe,
0:20:24–0:20:27
wiegt glaube ich sechs Tonnen oder so, wird auch so beschrieben.
0:20:27–0:20:35
Und das ist der Proust, Proust Skola oder sowas.
0:20:35–0:20:39
So, und das sind so die Charaktere. Und dann haben wir eben noch diesen Erzähler,
0:20:39–0:20:46
den wir da hören, Thomas Hockenberry, der im frühen 21.
0:20:47–0:20:52
Jahrhundert an Krebs gestorben ist. Ich glaube, die Zahl wird sogar genannt,
0:20:52–0:20:53
das Jahr, aber das habe ich jetzt nicht mehr im Kopf.
0:20:55–0:21:00
Und der dann wieder zum Leben erweckt wird. Also wir haben, um jetzt meine These
0:21:00–0:21:04
ein bisschen voranzutreiben, wir haben hier, was haben wir denn hier?
0:21:04–0:21:06
Alex gerade noch Gesang.
0:21:08–0:21:11
Wo gehen wir lang? Einfach an der S-Bahn erstmal lang, oder?
0:21:17–0:21:22
Diese Personen, diese Charaktere, die uns jetzt begleiten werden,
0:21:22–0:21:24
sind alle nicht menschlich.
0:21:25–0:21:31
Und das Ganze spielt, wird nicht genau benannt, spielt aber irgendwie so was
0:21:31–0:21:33
wie 3000 Jahre in der Zukunft.
0:21:35–0:21:38
Und da hatte ich dann auf einmal so gedacht, das ist ja interessant,
0:21:38–0:21:44
weil, wenn man jetzt mal guckt, wir sind heute, lesen dieses Buch heute,
0:21:44–0:21:50
vor etwa 3000 Jahren wurde Iliad von Homer geschrieben und das Ganze,
0:21:50–0:21:52
was wir jetzt sehen, spielt in 3000 Jahren.
0:21:53–0:21:57
Also irgendwie ist da so eine Symmetrie drin. Das heißt, der entwirft jetzt
0:21:57–0:22:00
ein Bild und sagt dann, okay, wir gucken auf die Iliad, Was ich im Interview
0:22:00–0:22:03
gefunden habe, war das auch für ihn ein Auslöser.
0:22:03–0:22:09
Der hat schon 1993, ich weiß nicht mehr genau, aber 2002,
0:22:09–0:22:14
2003 erschien das Buch, aber 1993 hatte er wohl im New Yorker einen Artikel
0:22:14–0:22:20
gelesen, in dem jemand beschrieben hat, wie er als Erwachsener nochmal wieder an die Uni gegangen ist.
0:22:22–0:22:25
Und ich weiß gar nicht mehr warum, das wird ihm mittlerweile nicht gesagt,
0:22:26–0:22:29
aber dort eben die Iliad dann auch nochmal gelesen hat und es hat ihn sehr berührt.
0:22:29–0:22:34
Und er hat gemerkt, wie wenig er sich eigentlich mit diesen fast 3000 Jahre
0:22:34–0:22:37
alten Charakteren dann doch irgendwie verbünden kann.
0:22:37–0:22:41
Ja, also wie weit weg das dann irgendwie doch ist.
0:22:42–0:22:47
Und dann habe ich, wenn das für ihn so ein Auslöser war, angefangen zu recherchieren
0:22:47–0:22:51
und sich einen Plot zu überlegen, dachte ich, Dan Simmons hat vielleicht wirklich auch gedacht,
0:22:51–0:22:55
okay, wie sieht es denn in 3000 Jahren aus, wenn die Leute auf uns gucken,
0:22:55–0:22:59
auf unsere Kultur und kommt dann darauf, dass halt die Humans vielleicht halt
0:22:59–0:23:04
nur noch 100 Jahre alt werden, immer regeneriert, selber gar nicht mehr lesen können.
0:23:04–0:23:07
Und dieses nicht lesen können ist ja gar nicht mehr so weit weg.
0:23:08–0:23:11
Wir haben ja natürlich kannst du lesen, aber wir haben ja immer diesen Running
0:23:11–0:23:12
Gag, dass du nicht mehr liest.
0:23:13–0:23:16
Ja, was ja auch so nicht stimmt. Du liest ja immer noch sicherlich irgendwelche
0:23:16–0:23:28
manuale aber jetzt muss ich kurz pause machen das wird nämlich sehr laut wir sind am anfang,
0:23:30–0:23:34
Flo macht ein Foto von einem Panda von hinten.
0:23:34–0:23:41
Also in gewisser Weise sind wir gerade an so einem verrückten kulturellen Implosionsrad,
0:23:42–0:23:51
wo gerade alles zusammenfällt mit Musik, mit Bärenkostüm, mit der Weltuhr heißt die auch, ne?
Florian Clauß
0:23:51–0:23:55
Ja, Weltzeituhr. Das war ja mal der klassische Treffpunkt im Osten,
0:23:56–0:23:59
weil die Weltzeituhr am Alex.
0:23:59–0:24:06
Wo man keine Telefone hatte und dann noch verbindliche Treffpunkte und Zeiten ausmachen musste.
0:24:07–0:24:09
Das war hier immer ganz gut gegeben.
Micz Flor
0:24:10–0:24:12
Fühlt sich auch an wie 3000 Jahre her.
Florian Clauß
0:24:13–0:24:15
Ja, 30 Jahre.
Micz Flor
0:24:18–0:24:24
Also das ist so eine Hypothese oder so ein Blick darauf, so dieses Menschliche
0:24:24–0:24:28
und das Verständliche zu konstruieren. Also wir gucken 3000 Jahre zurück auf
0:24:28–0:24:31
die Iliad, wir gucken 3000 Jahre in die Zukunft, das ist ein hypothetischer Blick.
0:24:31–0:24:37
Und in 3000 Jahren der Zukunft gibt es eben alle, die nicht mehr menschlich
0:24:37–0:24:43
sind, unter anderem auch diese Götter, die auf Mars, Olympus leben.
0:24:44–0:24:52
Und die diesen Thomas Hockenberry, der auch wieder von Simmons,
0:24:53–0:24:57
ist ein realer Mensch wohl, erzählt das im Interview.
0:24:58–0:25:00
Ich muss hier auch noch mal ganz kurz, das war eine Sache, die ich mir auch
0:25:00–0:25:02
noch mal rausgeholt hatte.
0:25:08–0:25:15
Der, mit dem er, glaube ich, auf der Uni war. Und das war so sein Gegenspiel, in Anführungszeichen.
0:25:16–0:25:20
Der einzige andere, ich finde es jetzt gerade nicht, der einzige andere Schreiber,
0:25:20–0:25:22
Writer, the only other Writer.
0:25:23–0:25:30
Und der wurde wohl kurz nach seinem Abschluss umgebracht, ermordet.
0:25:30–0:25:36
Wird auch nicht genau erklärt, was. Ich weiß aber, dem wollte er da mit Hockenberry,
0:25:36–0:25:40
mit dem Namen, irgendwie ein bisschen kein Denkmal setzen, aber ihn zumindest
0:25:40–0:25:42
irgendwie so im Leben erhalten.
0:25:42–0:25:53
Aber die Götter erwecken Thomas Hockenberry, der als PhD-Schola die Iliad auch
0:25:53–0:25:56
erforscht hat, wieder zum Leben.
0:25:56–0:26:02
Und er hat diesen absurden Auftrag zu beobachten in diesen realen Kämpfen, die da abgehen.
0:26:02–0:26:06
Also diese ganzen Charaktere aus der L-Jet sind da vor Ort und er kann sich
0:26:06–0:26:12
mittels Crazy-Technologie oder Magie oder wie man es auch nennen möchte, ich glaube, Arthur C.
0:26:12–0:26:18
Clarke hat mal gesagt, alles, was man sich nicht erklären kann,
0:26:18–0:26:21
muss wie Magie wirken, auch wenn es Technik ist oder so eine Art,
0:26:21–0:26:24
hat, kann er sich dann verwandeln,
0:26:24–0:26:28
kann andere Rollen annehmen, kann in andere Leute schlüpfen.
0:26:28–0:26:33
Und seine Aufgabe von den Göttern ist es, zu beobachten, ob die Iliad genau
0:26:33–0:26:39
so abläuft, wie es vor dann inzwischen schon 6000 Jahren geschrieben wurde.
Florian Clauß
0:26:39–0:26:45
Ich habe in Klappentext gelesen, er wird als Kriegsberichterstatter, Bestatter.
Micz Flor
0:26:45–0:26:46
Kriegsberichterstatter,
0:26:49–0:26:52
Er muss aufbauen.
Florian Clauß
0:26:52–0:26:57
Dass es genauso wie tradiert dann auch passiert.
Micz Flor
0:26:58–0:27:05
Ja, er soll herausfinden, ob es Unterschiede gibt. Und das ist wohl extrem wichtig.
0:27:06–0:27:11
Aber warum, weiß keiner. Und warum die Götter, die ja in der Iliad vorkommen,
0:27:11–0:27:15
die jetzt auf dem Mars leben, Und wir wissen gar nicht, was da unten für Menschen
0:27:15–0:27:18
in Anführungszeichen rumlaufen. Die müssen ja auch irgendwie hergestellt worden sein.
0:27:19–0:27:22
Und die laufen jetzt mit diesem Iliad-Programm in sich ab.
0:27:22–0:27:26
Und die Götter wollen jetzt wissen, ob die genau so ablaufen,
0:27:26–0:27:33
wie das damals vor 3000 Jahren ein PhD-Doktorand.
0:27:37–0:27:40
Der es studiert hat, irgendwie sagt. Also es ist so völlig verdreht,
0:27:40–0:27:46
völlig ineinander komisch verschraubt und du weißt nicht, warum die diese Welt geschaffen haben.
0:27:46–0:27:56
In der also die Iliad sind glaube ich 51 Tage in diesem Krieg und die gehen
0:27:56–0:27:59
auch nicht bis zum trojanischen Pferd und sowas, sondern die gehen nur,
0:28:00–0:28:05
in Homers Schreibung jetzt nur quasi bis nach dem Tod Hektors.
0:28:07–0:28:17
Und Hector wird von Achilles getötet und wird dann aber nicht rausgegeben.
0:28:17–0:28:19
Das heißt, es kann keine Trauerfeier stattfinden.
0:28:19–0:28:24
Und Homers Erzählung endet allerdings dann mit der Zeit,
0:28:24–0:28:35
in der Achilles von einem Trojaner überredet wird oder gut gestimmt wird,
0:28:35–0:28:44
den toten Leib, toten Körper von Hector rauszugeben und dann wird dann bestattet.
0:28:45–0:28:47
So, und dann ist die Iliad zu Ende.
0:28:48–0:28:52
Und ich weiß auch gar nicht mehr genau, ob Ilium dann zu Ende ist,
0:28:52–0:28:55
aber es ist eben auch der erste Teil von zwei Büchern.
0:28:56–0:29:00
Aber weil man bei Dan Simmons manchmal ein bisschen auf die Schnauze fällt,
0:29:00–0:29:04
weil man hofft, dass das zweite Buch dann genauso gut und eben auch...
Florian Clauß
0:29:05–0:29:07
Also von Ilium gibt es noch ein zweites Buch?
Micz Flor
0:29:08–0:29:09
Olympos heißt es.
0:29:11–0:29:12
Und Olympos ist auch super.
0:29:15–0:29:20
Es ist auch crazy super. Crazy und super, man kann das auch nicht so gut...
0:29:20–0:29:22
Also ich habe auch über Plot Spoiler nachgedacht.
0:29:22–0:29:26
Man kann die Bücher finde ich auch irgendwie... Man kann nicht so richtig Plot
0:29:26–0:29:28
spoilern, weil das ist eher so...
0:29:32–0:29:38
Kurt Vonnegut hat mal wohl als Tipp gesagt, für Menschen, die Bücher schreiben,
0:29:38–0:29:43
hat gesagt, fang so nah wie möglich am Ende an.
0:29:44–0:29:47
Also start as close to the end as possible.
0:29:50–0:29:54
Und das ist sehr interessant, weil man dann wirklich weiß als erstes,
0:29:54–0:29:59
okay, das ist das Ende meines Buchs und wo fange ich an?
0:29:59–0:30:02
Wo denkt man zurück? Weil ich finde, bei Dan Simmons ist es oft so,
0:30:02–0:30:03
wie es mir da ging mit dem Buch.
0:30:03–0:30:09
Ich wollte dann nach 12 Prozent, habe ich gedacht, oh Gott, wie soll ich das alles lesen?
0:30:09–0:30:12
Nach 80 Prozent habe ich gedacht, ich will einfach, dass es nie aufhört.
0:30:12–0:30:16
Das Ende war dann nicht mehr wichtig. Ich finde, bei ihm ist Plot Spoiler nicht
0:30:16–0:30:19
so ein Thema, weil man irgendwie einfach an diesen ganzen Erzählungen so dranhängt,
0:30:20–0:30:24
oder ich zumindest dranhängen kann, dass es einfach Spaß macht zu lesen. Das ist wie.
Florian Clauß
0:30:24–0:30:26
Wandern. Warst du jetzt schon bei deiner These?
Micz Flor
0:30:27–0:30:28
Ja, meine These ist?
Florian Clauß
0:30:30–0:30:31
Diese Zeitachse.
Micz Flor
0:30:31–0:30:38
Genau, wir haben also diese Situation, in der Ilium fast schon wie so ein Test-Environment
0:30:38–0:30:43
ist für die Frage, Frage, können wir Menschlichkeit oder was heißt,
0:30:43–0:30:44
bedeutet Menschlichkeit?
0:30:44–0:30:46
Können wir das irgendwie einfangen? Können wir das irgendwie festhalten?
0:30:46–0:30:47
Können wir das irgendwie beschreiben?
0:30:47–0:30:54
Und Simmons dann deshalb irgendwie gesagt hat, okay, vor 3000 Jahren die Iliad,
0:30:54–0:30:57
jetzt in 3000 nochmal Iliad.
0:30:57–0:30:59
Die Götter wissen es noch weniger als alle anderen.
0:30:59–0:31:06
Und wir heute können ja auch nur spekulieren, aber wir sind scheinbar das Beste,
0:31:06–0:31:11
was die auch in 3000 Jahren finden könnten, um jemanden wiederzubeleben.
0:31:11–0:31:13
Es gibt noch einen zweiten Forscher, da habe ich den Namen jetzt vergessen,
0:31:14–0:31:18
Knighton irgendwas, der auch da wiederhergestellt wurde.
Florian Clauß
0:31:18–0:31:20
Und der auch über die, über den,
0:31:21–0:31:22
dann.
Micz Flor
0:31:22–0:31:26
Ja, auch im Berichterstatter, die treffen sich zufällig. Vielleicht gibt es
0:31:26–0:31:28
noch mehr, das wissen wir nicht, aber die beiden treffen sich auf alle Fälle
0:31:28–0:31:30
und können sich so enttarnen.
Florian Clauß
0:31:30–0:31:35
Ich glaube, du beschreibst es ganz gut als eben so ein Versuchslabor.
0:31:35–0:31:40
Man hat das Gefühl, man ist dann in irgendeinem Inside-Machine und irgendwas
0:31:40–0:31:47
läuft da so ein Programm ab, das bestimmte Sachen rauszufinden versucht.
0:31:49–0:31:52
Und dann aber so ganz komische zutaten drin
0:31:52–0:31:55
hat ja ja es ist eine simulation von irgendwas
0:31:55–0:31:58
und gleichzeitig ist
0:31:58–0:32:01
auch sehr lebendig erzählt also die welt
0:32:01–0:32:07
nimmt man so ab ja es ist ja auch eine kunst so ich glaube was du was relativ
0:32:07–0:32:12
einfach zu nehmen das heißt einfach aber nehmen wir jetzt mal bei der expanse
0:32:12–0:32:18
ist dann eben dieses diese skalierung von mir fiction ist ja dann so ein bisschen
0:32:18–0:32:21
so Also diese Plausibilität,
0:32:21–0:32:22
die man entwickelt,
0:32:22–0:32:26
um halt Zukunft und eine Zukunftswelt zu erschaffen, die man irgendwie dem mal
0:32:26–0:32:30
folgt, wenn der mal sagt, okay, kann ich mir vorstellen. Und es ist aber noch relativ nah.
0:32:31–0:32:37
Ich weiß noch damals, es gibt ja in den 70ern gibt es ja auch solche,
0:32:39–0:32:47
Science-Fiction-Filme wie 2785, als das und das.
0:32:47–0:32:54
Und dann dachte ich damals als Kind, mein Gott, das ist ja unglaublich weit weg.
0:32:54–0:32:58
Wie kann man darüber einen Science-Fiction-Film machen? Wie kann man sich irgendwie
0:32:58–0:33:04
vorstellen, was jetzt in 800 Jahren ist?
0:33:05–0:33:12
Gleichzeitig kriegt man man ja auch irgendwie so einen relativ anderen Zugang zu Zeit.
0:33:13–0:33:18
Dimensionen. Und jetzt zurückblickend auf 800 Jahre hat man schon eine Griffigkeit
0:33:18–0:33:20
und kann man sagen, okay, was war vor 800 Jahren?
0:33:21–0:33:26
Da war irgendwie Mittelalter und so weiter. Also man hat ja irgendwie eine Vorstellung
0:33:26–0:33:28
von dem, was vor 800 Jahren ist.
0:33:28–0:33:33
Und jetzt auf so einer Zeitachse von 3000 Jahren finde ich das schon mal ziemlich,
0:33:33–0:33:39
ziemlich raffiniert, was er dann irgendwie für ein Setting entwirft.
0:33:40–0:33:51
Und wie das eben so mit Simulationen ist und Leben finde ich gelungen einfach bei ihm.
Micz Flor
0:33:51–0:33:58
Wir sind jetzt bei diesem einen Strang bei den Göttern und weil du sagst,
0:33:59–0:34:05
in der Iliad die Götter sind ja Teil dessen was wir da lesen wenn wir das lesen
0:34:05–0:34:09
oder irgendwie besprechen In der Iliad sind ja die Götter mit drin,
0:34:10–0:34:14
die sich gegenseitig auch irgendwie versuchen,
0:34:14–0:34:17
Beine zu stellen, ihre eigenen Interessen durchzusetzen.
0:34:17–0:34:20
Und es gibt dann eben die Halbgötter oder die Kinder von Göttern,
0:34:20–0:34:21
die dann irgendwie mitkämpfen.
0:34:23–0:34:27
Also es gibt so ganz viele Motivationen. Und in der Iliad ist eben auch Rage,
0:34:28–0:34:32
das sagt er ja auch, eine Zorn, ist halt so ein ganz, ganz wichtiges Thema.
0:34:32–0:34:36
Es geht ja so ganz viel um Zorn. immer wieder wird
0:34:36–0:34:39
er so weitergegeben und erst zum
0:34:39–0:34:42
schluss dann mit der herausgabe des toten kapers
0:34:42–0:34:48
von hektor und der beistattung kommt dann irgendwie so ein bisschen moment der
0:34:48–0:34:51
ruhe rein der krieg ist nicht zu ende aber das ist dann das ende der ideen hat
0:34:51–0:34:59
und jetzt gucken wir halt in dieses buch hinein indem das von vor 3000 in die
0:34:59–0:35:01
zukunft kommt man dadurch nicht.
Florian Clauß
0:35:01–0:35:02
Aber ich glaube.
Micz Flor
0:35:02–0:35:02
Ich denke.
Florian Clauß
0:35:02–0:35:05
Es ist besser, nicht an der Straße lang zu laufen. Ja, wir.
Micz Flor
0:35:05–0:35:09
Probieren ja mal hier so ein paar Nebenstraßen. Gerade war schon irgendwie Feuerwehr
0:35:09–0:35:11
oder Notarzt. Es ist ein bisschen laut hier.
0:35:12–0:35:16
Das heißt, Simmons nimmt jetzt Iliad und setzt sie in die Zukunft.
0:35:16–0:35:21
Er verändert auch die Sprache, auch wenn er jetzt sein Buch selber mit so pathetischen
0:35:21–0:35:24
Sachen anfängt. Es wird conversational irgendwie.
0:35:24–0:35:28
Es wird so ein bisschen gestelzt, aber es ist umgangssprachlich,
0:35:28–0:35:29
wie die miteinander reden.
0:35:33–0:35:37
Und projiziert also das von vor 3000 Jahren in 3000 Jahre Zukunft.
0:35:38–0:35:41
Und wir schauen uns genau irgendwie das Gleiche nochmal an.
0:35:41–0:35:44
Und dahinter passiert aber dann eben diese neue Geschichte, dass wir nochmal
0:35:44–0:35:46
so anders auf diese Götter gucken.
0:35:46–0:35:51
Diese Götter haben das alles hergestellt und inszeniert, was man ja auch von
0:35:51–0:35:52
Göttern irgendwie erwartet.
0:35:53–0:35:55
Das ist ja so unser Bild, Gott macht die Erde.
0:35:55–0:35:58
Am Anfang war das Wort oder was auch immer.
0:35:59–0:36:02
Und und er als autor schreibt es in zukunft rein wir
0:36:02–0:36:05
gucken mal genau auf die götter die waren sonst immer so gesetzt mama
0:36:05–0:36:08
und papa stellt man nicht in frage und jetzt gucken wir mal an und dann
0:36:08–0:36:11
stellt sich halt bei denen raus die kochen auch nur mit wasser die haben dann
0:36:11–0:36:21
auch so komische technik die haben dann bestimmte zum beispiel die die chariots
0:36:21–0:36:26
also diese wagen mit denen sie die dann am Himmel entlang fliegen, auch für alle sichtbar.
0:36:26–0:36:32
Die sind, wenn man genau hinguckt, was halt dann Hockenberry irgendwann kann,
0:36:32–0:36:37
weil er da näher rankommt, da sieht man, dass das teilweise eben auch Raketenbetriebe
0:36:37–0:36:40
sind. Also sie sind halt da bloß teilweise versteckt.
0:36:40–0:36:44
Die haben dann so bestimmte Technik, also einfach Technologien,
0:36:44–0:36:48
mit denen sie einen Knopf drücken können, sich teleportieren woanders hin und so.
0:36:48–0:36:52
Und das sind einfach Sachen, die sie dann halt eben göttlich scheinen lassen
0:36:52–0:36:57
und vor allen Dingen auch göttlich scheinen lassen vor diesen künstlich hergestellten,
0:36:57–0:37:01
für uns schon 3000 Jahre alten Charaktere,
0:37:01–0:37:06
die wir schon gar nicht mehr, so eben dieses eine Essay, das Dan Simmons auch
0:37:06–0:37:09
mitmotiviert hat, da mal rein zu gucken, mit denen wir uns schon gar nicht mehr
0:37:09–0:37:11
so gut innerlich verbinden können.
0:37:11–0:37:15
Dieses Menschliche aus der damaligen Zeit ist irgendwie festgehalten,
0:37:15–0:37:17
aber es ist ganz schwer, das irgendwie.
0:37:21–0:37:22
An sich ranzulassen.
0:37:24–0:37:31
Bei Dan Simmons' Ilium gucken wir also genauso, wie wir heute auf die alte Iliad
0:37:31–0:37:32
gucken, gucken wir auf dessen.
0:37:32–0:37:35
Wir sind einfach diese, wir wollen es auch wissen, was ist denn los,
0:37:35–0:37:37
was motiviert den und so weiter.
0:37:37–0:37:43
Also wir sind genauso Publikum, wie für die alte Iliad von Homer.
0:37:44–0:37:48
Und gleichzeitig sind die Götter aber auch irgendwie Publikum für diese Puppen,
0:37:48–0:37:52
die sie selber selber erschaffen haben, die das jetzt so abspulen, das Ganze.
0:37:52–0:37:56
Und zwar wirklich eben auch in der gleichen Geschwindigkeit abspulen.
0:37:57–0:38:01
Und dann ist es aber wiederum auch, finde ich, wenn es um die Frage Menschlichkeit
0:38:01–0:38:06
geht, dann ist es auch so, alles sind halt irgendwie Anteile von dieser Menschlichkeit.
0:38:07–0:38:10
Und die Götter sind halt irgendwie welche, die halt irgendwie so ein bisschen
0:38:10–0:38:13
die hässlichsten Anteile auch so darstellen.
0:38:13–0:38:20
Die sind verschwenderisch und gebietend und umgangssprachlich würde man dieses
0:38:20–0:38:23
komische Wort Hinterfotzig benutzen, weil die sich gegenseitig versuchen,
0:38:24–0:38:28
immer so ein Dolch in den Rücken zu stoßen und sich da irgendwie immer gegenseitig...
Florian Clauß
0:38:28–0:38:33
Aber die sind ja auch so rein klassisch ganz gut übertragen.
0:38:33–0:38:36
So werden ja auch die Götter dargestellt.
Micz Flor
0:38:36–0:38:39
Ja, also diese Götter auf jeden Fall. Die haben das auch.
0:38:39–0:38:43
Und jetzt kommen wir aber mit Hockenberry als Erzähler ziemlich nah ran.
0:38:43–0:38:48
Der zieht sich dann eben auch so einen Helm des Hades, heißt es glaube ich,
0:38:48–0:38:51
zieht er sich auf und dann ist er unsichtbar und dann schleicht er sich da auch mal hin.
Florian Clauß
0:38:52–0:38:58
Der hat das dann von Aphrodite, oder? Hat er doch den Helm bekommen und er ist
0:38:58–0:39:06
dann quasi bei ihr so ein bisschen in der Anstellung, dass er da für sie bestimmte Sachen rausfindet.
Micz Flor
0:39:06–0:39:09
Genau, er ist Spion. Spion.
0:39:11–0:39:15
Vor allen Dingen, das ist sozusagen seine direkte Vorgesetzte.
0:39:15–0:39:17
Ich weiß nicht mehr, wer es ist. Da weißt du jetzt mehr als ich.
Florian Clauß
0:39:17–0:39:25
Ich glaube, es war die Aphrodite oder es war oder wie heißt die Frau von Joyce?
Micz Flor
0:39:26–0:39:32
Das wäre die das wäre die nicht Helena, ist es? Helena.
Florian Clauß
0:39:33–0:39:34
Doch. Ja, ich glaube, es war Helena.
Micz Flor
0:39:34–0:39:41
Aber Helena ist ja auch die Helen of Troy ist ja auch die Schwägerin von Agamemnon,
0:39:41–0:39:45
die von Paris entführt wurde, weshalb es den ganzen Krieg überhaupt gab.
0:39:45–0:39:47
Aber ich glaube, nee, Hera ist die.
Florian Clauß
0:39:47–0:39:51
Hera. Hera, genau. Hera ist die Frau von Zeus.
Micz Flor
0:39:51–0:39:55
Und ich kenne mich aber mit dieser Mythologie jetzt nicht so gut aus,
0:39:55–0:40:00
weil das ist natürlich für die von ein paar Reviews, die ich gelesen habe,
0:40:00–0:40:04
waren eben auch Leute, die das wegen Iliad gelesen haben.
0:40:04–0:40:10
Weil das scheint im amerikanischen Raum wirklich auch noch mal anders gesetzt zu sein.
0:40:10–0:40:13
Vielleicht hat sich das inzwischen auch ein bisschen geändert,
0:40:14–0:40:17
wo viel in Bibliotheken verschwindet, in Schulen und Colleges.
0:40:17–0:40:22
Aber das war damals, habe ich öfter gelesen, ich wollte es unbedingt lesen,
0:40:22–0:40:26
als ich erfahren habe, dass es sich da um Homer, das ist so lange her,
0:40:26–0:40:28
dass ich das damals in der Schule hatte oder im College.
0:40:29–0:40:33
Also dann, das ist für viele so ein Aufhänger gewesen. Aber ich habe damit nicht
0:40:33–0:40:37
viel zu tun gehabt, muss ich zugeben. In der Schule war das kein Thema bei uns.
0:40:39–0:40:41
Weißt du nicht, habt ihr das in der Schule gemacht, sowas?
Florian Clauß
0:40:43–0:40:43
Ähm, nee.
Micz Flor
0:40:44–0:40:44
Nee, ne.
0:40:48–0:40:51
Ja, aber das ist der eine Block.
0:40:51–0:40:54
Und die Götter zum Beispiel auch, und damit kommen wir zum zweiten Strang,
0:40:56–0:41:04
sind eben, wie ich sagte, so die, irgendwie so das Schlechtere oder das egozentrische
0:41:04–0:41:08
oder egomanische oder selbstsüchtige so an dieser Menschlichkeit,
0:41:09–0:41:14
dass die eben einfach auch ohne Rücksicht auf Verluste so auf diese Knöpfe drucken
0:41:14–0:41:17
und hier und da und dort und hier ihr Ding durchziehen, was dazu führt,
0:41:17–0:41:22
und das bringt uns zu den Moravex bei Jupiter,
0:41:22–0:41:27
dass die Moravex von außen messen,
0:41:27–0:41:34
dass vom Mars besorgniserregende Quantenfluktuationen zu messen sind.
0:41:34–0:41:37
Da sind wir auch wieder ein bisschen bei Expanse. Das erzählt ja von diesem
0:41:37–0:41:42
einen Neutronenstern, der in so einem System quasi als Mausefalle aufgebaut wurde.
0:41:42–0:41:48
Also da gibt es dann in diesen Quantenfeldern innen um Mars herum, das ist irgendwie...
0:41:49–0:41:54
Kritisch, das ist für mich jetzt nicht mal Wikipedia-Plausibility,
0:41:54–0:41:58
sondern einfach, das ist Fiction, also kritische Quantenfluktuation,
0:41:58–0:42:03
was dazu führen könnte, dass halt da in der Gegend wirklich ein Loch,
0:42:03–0:42:07
also wie die Moravex das formulieren wird, ein Loch in den Zeitraum kontinuiert ist.
Florian Clauß
0:42:08–0:42:13
Die sind so eine Art von gleichberechtigter Abstimmungsgruppe,
0:42:13–0:42:17
die schicken dann lieber als Expedition los. Ja.
Micz Flor
0:42:18–0:42:22
Ich glaube, es werden insgesamt vier losgeschickt, aber nur zwei überleben.
0:42:22–0:42:25
Die werden dann über Maas nämlich abgeschossen. Das war vielleicht ein kleiner Plot-Spoiler.
0:42:26–0:42:30
Aber du hast ja mit der Krake und dem Absturz schon erzählt, was da so ist.
0:42:32–0:42:35
Aber die Moravex sind auf alle Fälle die, wo man das Gefühl hat,
0:42:35–0:42:37
das hat am meisten noch mit uns zu tun.
0:42:37–0:42:42
Die bilden Diskussionsgruppen, die beraten, die wägen ab.
0:42:42–0:42:46
Vielleicht ist es aber auch ein idealisiertes Bild von uns und wir sind den
0:42:46–0:42:54
Göttern doch irgendwie näher, die einfach nur vor sich hin leben und Müllberge
0:42:54–0:42:55
hinter sich zurücklassen.
Florian Clauß
0:42:55–0:43:00
Aber die Moravex sind ja auch eher, die haben ja nicht wirklich so Körper,
0:43:00–0:43:05
die haben ja alle so ganz komische Körper, die sind ja alle so zusammengepatcht.
Micz Flor
0:43:05–0:43:11
Die sind für etwas geschaffen, also die haben eine eingebaute Funktion und dadurch
0:43:11–0:43:16
sind sie natürlich in gewisser Weise auch bestimmt, also in gewisser Weise auch bestimmten Freiheiten,
0:43:18–0:43:22
bleiben ihnen verwehrt, weil die Körper nur bestimmte Sachen tun können.
0:43:22–0:43:26
Aber gleichzeitig scheint es so zu sein, dass diese Beschränkung sie zumindest
0:43:26–0:43:30
geistig nicht unfrei macht, weil das sind dann die, die eben,
0:43:31–0:43:35
Proust und Shakespeare so nette studieren, lesen und reflektieren,
0:43:35–0:43:38
darüber diskutieren. Sie.
Florian Clauß
0:43:38–0:43:43
Bringen ja weil hier ist menschliche Kultur gut dann wieder so in so einem Diskussionsstadium.
0:43:44–0:43:46
Also das heißt, die ist diskursfähig.
Micz Flor
0:43:47–0:43:51
Und das ist dann eben auch wieder dieser Twist, was ich meinte mit dieser Hypothese,
0:43:51–0:43:54
das ist ja nochmal eine andere Linse. Ja, dann sind wir ja auch die Moravex,
0:43:55–0:44:00
die sich die Menschlichkeit angucken, das ist ja für die auch wesensfremd.
0:44:00–0:44:04
Aber die versuchen es zu begreifen, die sind sogar ergriffen davon.
0:44:04–0:44:14
Aber sie kommen natürlich sehr von so einem KI, es ist weniger ein emotionaler
0:44:14–0:44:16
Raum, wobei die auch sehr viel Emotion dann irgendwie zeigen.
0:44:17–0:44:24
Also in diesem Aufruf Ayo und Mahnmut sind dann im Kampf, ist der eine verwundet,
0:44:24–0:44:26
ich weiß gar nicht mehr wer und der andere will ihn halt
0:44:26–0:44:29
dann irgendwie retten und lügt ihn sogar an, dass er sagt, nee,
0:44:29–0:44:34
nee, nee, es sind nur noch 10 Minuten, aber in Wahrheit ist alles viel, viel dramatischer.
0:44:34–0:44:38
Aber er will, weil der andere dann sagt, du, ich bin nur noch dead weight, lass mich liegen.
0:44:39–0:44:42
Und er will ihn aber mitnehmen und versucht ihn dann zu überreden,
0:44:42–0:44:45
indem er lügt. Und du merkst da ganz viel Emotionalität zwischen den beiden.
0:44:47–0:44:53
Was ja nicht so das Androide ist, was man so allgemein beschreiben würde.
0:44:53–0:44:56
Aber die sind auch Wir sind auch wieder Beobachter von Menschlichkeit.
0:44:56–0:45:00
Die diskutieren über die Sonette, über Prust, wie hängt das zusammen, worum geht es.
0:45:02–0:45:06
Also bei Prust geht es generell darum,
0:45:06–0:45:13
dass Menschlichkeit an seinem biografischen Leben irgendwie versucht,
0:45:13–0:45:17
das zu erfassen oder zu generalisieren, zu beschreiben, zu verstehen und so.
0:45:17–0:45:23
Und das heißt, da sind wir dann auch wieder verknüpft mit Nicht-Erzählern der Geschichte.
0:45:24–0:45:29
Wir gucken schon auf die Moravex drauf. Auch Hockenberry erzählt uns das nicht.
0:45:29–0:45:33
Also wir gucken quasi mit einem anderen Erzähler auf die drauf.
0:45:33–0:45:40
Aber die wiederum erleben wir als welche, die versuchen, über diese Kunst der
0:45:40–0:45:44
Menschen das Menschliche irgendwie auch zu verstehen.
0:45:45–0:45:48
Und die Moravex, das ist der zweite Strang, die gehen dann eben los,
0:45:49–0:45:53
werden losgeschickt um Komme-Was-Wolle.
0:45:53–0:45:57
Sie sollen dafür sorgen, dass diese Quantenfluktuation aufhört,
0:45:58–0:46:00
weil es einfach eine Gefahr für das ganze Sonnensystem darstellt.
0:46:03–0:46:04
Das ist der zweite Strang.
Florian Clauß
0:46:04–0:46:18
Und wo sind diese menschenähnlichen, diese hedonistische Hippie-Gemeinschaft einzuordnen?
Micz Flor
0:46:18–0:46:20
Die sind der dritte Strang.
0:46:23–0:46:29
Die sind auf der, in Anführungszeichen, Erde, die aber wohl auch wieder umgeformt
0:46:29–0:46:31
wird. Da leben zum Beispiel wieder Dinosaurier drauf.
0:46:33–0:46:38
Es gibt exakt eine Million Menschen auf der Erde.
0:46:39–0:46:45
Es gab wohl mal so eine Art Seuche und nach dieser Seuche wurde aber, wie auch immer,
0:46:46–0:46:55
das so hergestellt, dass auf dieser Erde immer nur exakt eine Million Menschen leben.
0:46:57–0:47:06
Es gibt da auch so eine art teleporting struktur so ein bisschen wie so telefonzellen
0:47:06–0:47:09
stelle ich mir das vor so kleine tore dann gehst du durch und dann sprichst.
Florian Clauß
0:47:09–0:47:13
Du wie bei harry potter diese port schlüssel.
Micz Flor
0:47:13–0:47:15
Und in hyperion was ich
0:47:15–0:47:19
auch noch auf jeden fall vorstellen möchte wird das ist es
0:47:19–0:47:23
auch schon drin also das ist so eine simmons sache und da
0:47:23–0:47:27
spielte dann zum beispiel hyperion auch damit dass man
0:47:27–0:47:30
als privatmensch wenn man richtig richtig reich
0:47:30–0:47:34
ist kann man als privatmensch sich zum beispiel ein haus bauen indem man diese
0:47:34–0:47:40
fahrkasten die glaube ich also nicht broadcast oder fahrkasten distanz du kannst
0:47:40–0:47:43
du dein haus bauen wurde dann wenn du dich eine tür gehst dann bist du auf einem
0:47:43–0:47:48
auf einem anderen planeten im anderen system und dann ändert sich also also Also diese Idee,
0:47:48–0:47:54
dass das Raum dann über diese Fahrkaste wirklich nochmal was ganz anderes bedeutet.
0:47:55–0:47:58
Und die Idee, dass du ein Haus hast mit vier Zimmern und alle vier Zimmer sind
0:47:58–0:48:02
in einem anderen Sonnensystem, aber du lebst halt da drin, finde ich schon auch
0:48:02–0:48:04
ein schönes Gedankenspiel.
0:48:04–0:48:08
Das haben die auch auf der Erde und dann gehen die so hin und her und feiern
0:48:08–0:48:10
und haben halt irgendwie so Sex.
0:48:10–0:48:14
Und wir lernen halt verschiedene Charaktere da kennen.
Florian Clauß
0:48:14–0:48:22
Das hat mich so ein bisschen von der Ausstattung erinnert an diesen Woody Allen,
0:48:22–0:48:25
der Schläfer, das ist doch der Science-Hitchhiker.
Micz Flor
0:48:25–0:48:30
Ja, okay, ja. Ja, ich fand da immer diese Logan's Run, kennst du den noch?
Florian Clauß
0:48:30–0:48:30
Ja, ja, ja.
Micz Flor
0:48:31–0:48:35
Weil da ja auch diese, die sterben mit 30 und es gibt quasi kein wirkliches,
0:48:35–0:48:39
es gibt keine wirkliche Erklärung, keinen Griff hinter die Fassade,
0:48:39–0:48:44
aber innerhalb dieser Bühne, in der alle leben bei Logan's Run,
0:48:45–0:48:48
wird man halt 30 und danach fliegt man diese Pyramide hoch und stirbt,
0:48:48–0:48:52
wird abgeschossen und ähnlich, finde ich, ist das Setting da auch.
0:48:53–0:48:56
Explizit wird es auch so ein bisschen verglichen mit HG Wells Zeitmaschine mit
0:48:56–0:49:00
den Eloy, die einfach so dröge vor sich so hinvegetieren.
0:49:04–0:49:10
Und es gibt aber einen, Harman heißt er, der ist dann schon 98,
0:49:10–0:49:13
also zwei Jahre bevor er dann in die Ringe hochkommt,
0:49:13–0:49:19
die die Erde umkreisen, der von sich aus lesen gelernt hat.
0:49:19–0:49:22
Überall stehen Bücher, aber niemand liest.
0:49:22–0:49:26
Und er hat an Lesen gelernt und andere wollen dann auch von ihm lesen lernen.
0:49:26–0:49:28
Also irgendwas passiert da.
0:49:28–0:49:31
Diese genetisch mutierten, manipulierten...
Florian Clauß
0:49:31–0:49:36
Ja, man hat das Gefühl, er baut sich irgendwo in jedem Strang so ein Glitsch auf. Ja.
Micz Flor
0:49:36–0:49:41
Und das ist auch so ein bisschen, ich habe dann, also das würde mich dann auch
0:49:41–0:49:49
nochmal interessieren, in Bezug auf dein Thema, dieses Hyperlink-Cinema.
0:49:50–0:49:55
Also diese Idee, ob du da so eine Art des Geschichtens reinnehmen würdest.
0:49:56–0:49:59
In diesem Fall sind es aber bei Hyperion sind es noch mehrere Sachen,
0:49:59–0:50:01
mehrere Geschichten, die hier zusammenkommen.
0:50:01–0:50:05
Aber in diesem Fall halt diese drei Stränge, die sich dann am Anfang gar nicht
0:50:05–0:50:08
so sehr berühren, aber zum Schluss halt irgendwie so zusammenkommen.
0:50:08–0:50:09
Ja, ich habe es ja nicht bis zum Schluss gelesen.
Florian Clauß
0:50:09–0:50:09
Ja.
Micz Flor
0:50:09–0:50:12
Das kann ich sagen. Aber ich hatte so das Gefühl, dass das vielleicht so eine
0:50:12–0:50:16
Form des Geschichtenerzählens ist, die halt so 90er, Nullerjahren vielleicht
0:50:16–0:50:20
auch, also Hyperion zum Beispiel war Ende 80er,
0:50:22–0:50:26
dass das vielleicht einfach sowohl filmisch als auch in der Literatur damals
0:50:26–0:50:29
so ein bisschen experimentiert wurde.
0:50:29–0:50:32
Aber egal, das ist jetzt nicht unser Thema jetzt. Du hast es nicht fertig gelesen.
0:50:33–0:50:37
Und bis zur nächsten Aufnahme wirst du die zweiten 400 Seiten auch nicht lesen.
0:50:40–0:50:41
Ja.
Florian Clauß
0:50:41–0:50:42
Vielen Dank, Mitch.
0:50:45–0:50:46
War recht spannend.
Micz Flor
0:50:47–0:50:50
Wir hören jetzt bei Seite 400 auf. Bis hier war Flo.
0:50:52–0:50:59
Was auf der Erde was auf der auf der in Anführungszeichen Erde ist,
0:50:59–0:51:03
ist halt die Geschichte, die da losgeht, ich finde das schon auch irgendwie
0:51:03–0:51:04
toll, wo halt diese Party,
0:51:07–0:51:11
geplant ist und über Fahrkasten kommen da alle irgendwie her und der eine geht
0:51:11–0:51:12
dann, glaube ich, pinkeln oder so.
0:51:13–0:51:16
Das ist so ein kleiner, pummeliger Typ. Alle kennen ihre Mutter,
0:51:16–0:51:19
aber keiner kennt seinen, ihren Vater.
0:51:21–0:51:28
Weil eben wegen diesen Motten gehen und der ist dann irgendwie irgendwie draußen
0:51:28–0:51:30
und dann wird er vom Dinosaurier gefressen.
0:51:31–0:51:36
Dann kommt er aber in der nächsten Szene schon wieder. Wenn sowas passiert,
0:51:36–0:51:37
dann werden die Leute halt sofort wieder hergestellt.
0:51:45–0:51:50
Ach, sehr cool, da gehen wir ja hinten rum, wir gehen über die Brücke gerade in der Spree.
0:51:51–0:51:55
Dann können wir nochmal kurz da
0:51:55–0:52:00
hinten diese Runge Straße, diese kleine Schleife gehen, die mag ich ganz.
Florian Clauß
0:52:00–0:52:05
Gut. Ja, da wo die Seabase ist.
Micz Flor
0:52:05–0:52:06
Genau, wo die Seabase ist.
Florian Clauß
0:52:06–0:52:08
Ja, da können wir auch nochmal reingehen. Jetzt kommen wir auch.
Micz Flor
0:52:08–0:52:15
Schon langsam zum Ende für diesen Non-Plot-Spoiler-Un-Teaser-Buchbesprechung von Ilium.
0:52:16–0:52:23
Und was dann passiert, also um diesen Momentum der einzelnen Stränge so ein
0:52:23–0:52:25
bisschen darzustellen,
0:52:26–0:52:31
es gibt auch noch die kleinen grünen Männchen, LGMs ist die Abkürzung,
0:52:31–0:52:34
Little Green Men, auf dem Mars. die gibt es auch noch.
0:52:35–0:52:41
Die bauen die ganze Zeit so diese Osterinselköpfe und stellen die halt dann an der Küste des Mars ab.
0:52:41–0:52:45
Im Mars, der wurde mal Terraforming-mäßig umgebaut, da gibt es dann halt so
0:52:45–0:52:49
Seen und die bauen halt an der Küste immer wieder neue, neue, neue.
Florian Clauß
0:52:49–0:52:51
Woher kommen die? Das.
Micz Flor
0:52:51–0:52:55
Wird nicht erklärt. Ich weiß gar nicht mehr wer, aber irgendjemand,
0:52:55–0:52:59
vielleicht ist es sogar Mahnmut oder auch Frau Feier, versucht mit denen irgendwie Kontakt aufzunehmen.
0:53:00–0:53:04
Das Problem ist bloß, die sterben, wenn sie dir Informationen geben.
0:53:05–0:53:13
Das heißt, für die ist es dir etwas mitzuteilen, es ist das Ende ihres Lebens.
0:53:14–0:53:15
Das muss wohlgewehrt sein.
Florian Clauß
0:53:15–0:53:20
Ein bisschen wie bei den Fraggles. Die Fraggles, wo dann auch diese ganzen,
0:53:20–0:53:26
die Construction Workers die ganze Zeit diese Höhlen weiter ausbauen,
0:53:26–0:53:27
aber die ganze Zeit so mürrisch sind.
0:53:29–0:53:31
Weißt du? Hast du die gesehen? Das ist super.
Micz Flor
0:53:31–0:53:33
Da müssen wir auch eine Folge drüber machen, ehrlich gesagt.
Florian Clauß
0:53:33–0:53:36
Ich habe die auch geliebt, aber die hat mich immer ein bisschen verwirrt.
Micz Flor
0:53:36–0:53:39
Ja, ja, es war irgendwie so. Es gab ja auch, da hatte ich auch mit Chris,
0:53:40–0:53:44
hallo Chris, hatte ich auch mal diese Sache, wo wir so ganz am Anfang vom Internet
0:53:44–0:53:46
und was wird das jetzt und wie soll das?
0:53:46–0:53:50
Und also so dieses Ding, so wow, einerseits großartig, andererseits,
0:53:50–0:53:53
was sind die Hierarchien, was ist die Ordnung und sowas?
0:53:53–0:53:58
Und dann hat Chris dann gesagt so, das ist ein bisschen so wie die große allwissende
0:53:58–0:54:00
Müllhalle von den Fraggles.
Florian Clauß
0:54:00–0:54:05
Ja, so wird ja auch Wikipedia, wurde ja auch immer so genannt in den Anfangsjahren,
0:54:05–0:54:09
die allwissende Müllhalde, weil jeder was raufkippen konnte.
Micz Flor
0:54:10–0:54:14
Gut, aber zurück zu diesem tollen Buch. Nichts lenkt mich ab.
0:54:14–0:54:15
Ich bleibe hier auf diesem,
0:54:18–0:54:22
Fahrradwegstreifen und balanciere weiter aufs Ziel zu. Luke Skywalker.
0:54:25–0:54:29
Auf der Erde ist es so, dass Haman fängt an zu lesen und,
0:54:30–0:54:35
ach so, eine ganz wichtige Sache vom Setting auch, finde ich so großartig,
0:54:35–0:54:37
es gibt, wie heißt die nochmal,
0:54:37–0:54:47
Servix und es gibt noch so, also Dienender, Serv irgendwas und Tron.
Florian Clauß
0:54:47–0:54:55
Bei den Menschen. Bei den Menschen, genau. Aber das waren so am ehesten so Service-Roboter, ne?
Micz Flor
0:54:55–0:54:58
Ja, es gibt diese Service-Roboter und es gibt noch die Voynix.
0:54:58–0:55:01
Das sind auch solche Roboter, wo ich jetzt aber gar nicht weiß,
0:55:01–0:55:05
ob die im ersten Teil Ilium oder erst in Olympos eine Rolle spielen.
0:55:06–0:55:09
Aber das ist zumindest ein Twist, den ich gerne erzählen möchte,
0:55:09–0:55:10
weil der ist so großartig.
0:55:11–0:55:15
Weil wir wissen inzwischen, wie bei allem, wir wissen nicht,
0:55:15–0:55:19
woher es kommt, wir wissen nicht, wer es implementiert hat, wir wissen nicht, wozu es da ist.
0:55:19–0:55:22
Diese logik ist uns nicht klar aber es
0:55:22–0:55:26
gibt diese roboter die dienen die dienen
0:55:26–0:55:29
die ganze zeit die bringen halt dann hier und das essen und da die
0:55:29–0:55:31
sind einfach sind aber roboter die machen das einfach so das hat so ein ding
0:55:31–0:55:35
keiner denkt darüber nach und auch dann zwischendrin gibt es auch mal so ein
0:55:35–0:55:39
dialog so ja wo kommen die eigentlich her und dieser typ der vom dinosaurier
0:55:39–0:55:46
gesprochen gefressen wurde so der sagt dann warum ist mir egal also wurscht
0:55:46–0:55:47
auch wieder so eine Menschlichkeit.
Florian Clauß
0:55:47–0:55:48
Die.
Micz Flor
0:55:48–0:55:54
Sind wie Luft, die ist einfach da. Und die Voynixer, die sind auch irgendwie einfach da.
0:55:54–0:55:57
Ich weiß gar nicht mehr genau, aber ich glaube, die sind im ersten Teil schon
0:55:57–0:56:00
aktiv und deshalb kann ich dann vielleicht irgendwie schon sagen,
0:56:01–0:56:07
dass es irgendwann wie so ein Schalter umgelegt wird und die Voynixer aus dem
0:56:07–0:56:10
Nichts heraus versuchen in Heerscharen alle Menschen umzubringen.
0:56:12–0:56:15
Also das geht einfach los und es ist einfach so,
0:56:15–0:56:18
auf einmal sind die da und die kommen durch den wald und die müssen irgendwie
0:56:18–0:56:23
so und und wie du sagst irgendwie passiert da was in diesen strengen diesen
0:56:23–0:56:27
einen stand passiert hat haben fängt an zu lesen bücher lesen fängt an fragen
0:56:27–0:56:32
zu stellen fängt an mathematik zu lernen auch zu vermitteln das gibt also eine
0:56:32–0:56:36
kleine gruppe ebenso hippie mäßig aus so eine schule die lernen dann metall,
0:56:36–0:56:40
verarbeitung und so sachen also die sind da passiert irgendwas verändert sich
0:56:40–0:56:46
und auf einmal bricht dann dieses so als ob auch die irgendwie ein experiment sind was,
0:56:48–0:56:55
das ist ein wohnraum wahrscheinlich sind gerade hier war doch früher war nicht ein.
Florian Clauß
0:57:01–0:57:04
Wir kommen jetzt auf die Köpi, Köpi-Nika.
0:57:05–0:57:15
Und hier auf dem hier, das ist so das Gelände, also hier sind so diese Superreichen.
Micz Flor
0:57:17–0:57:21
Genau, das ist quasi der Ring, was im Ilium, dieser Ring der Post-Humans.
Florian Clauß
0:57:21–0:57:28
Ja, ihren Wohnraum, so Gläser und so Schaustellen, wo man denkt, wow.
0:57:29–0:57:35
Und da hinten war das Architekturzentrum. Das ist ja auch schon so diese Club-Route, ne?
Micz Flor
0:57:35–0:57:36
Ja.
Florian Clauß
0:57:36–0:57:40
Hier war Praxis Dr. McCoy, weißt du, früher in einem Club drin.
Micz Flor
0:57:40–0:57:42
Wo wir immer mit Gideon drin waren.
Florian Clauß
0:57:43–0:57:47
Ne, das war ja diese Bar am Wasser.
0:57:48–0:57:53
Wie hießen die noch? ja das war gegenüber von von kater ja.
Micz Flor
0:57:53–0:57:57
Ich habe sehr viele clubs besucht immer wieder weil das.
Florian Clauß
0:57:57–0:57:58
Wahrheit ich war ein teil von.
Micz Flor
0:57:58–0:58:03
So leuten wie dir und dann war ich immer wieder auf den clubs aber ich kann
0:58:03–0:58:04
mich jetzt an den namen so nicht erinnern.
Florian Clauß
0:58:04–0:58:13
Ja und hier ist der tresor hingezogen in das gebäude ja da war ich drin das weiß.
Micz Flor
0:58:13–0:58:14
Ich aber das wurde doch dann jetzt.
Florian Clauß
0:58:14–0:58:21
Dahin aufgelöst ja den gibt es glaube ich nicht mehr aber.
Micz Flor
0:58:21–0:58:23
Das ist doch jetzt diese große halle radialsystem.
Florian Clauß
0:58:23–0:58:32
Die radiale ist hier noch weiter und das hier da ist und das lustige ist der
0:58:32–0:58:37
sieht wirklich genauso aus wie früher also das ist echt was sie denn naja was
0:58:37–0:58:43
die letzte vor sieben jahren sechs sieben mit dem Wattenfall.
0:58:43–0:58:49
Du kommst da hinten so rein und dann kommt da das alte Walfisch und der KitKat Club.
Micz Flor
0:58:50–0:58:53
Kann man eigentlich auch Videos bei uns unterbringen auf der Webseite?
Florian Clauß
0:58:53–0:58:54
Hier ist der Eintritt von uns.
Micz Flor
0:58:54–0:58:59
Der Eingang vom Tresor. Weil ich möchte das kurz filmen, weil ich weiß nicht,
0:58:59–0:59:00
ob es Kunst ist oder nicht, aber,
0:59:04–0:59:16
Wir sind direkt vor dem Wattenfallkomplex und diese blinkenden Straßenlaternen sind,
0:59:16–0:59:22
finde ich, keine gute Werbung für die Stromversorgung der Stadt.
Florian Clauß
0:59:28–0:59:34
Wenn auch irgendwelche Botschaften, die wir wieder nicht verstehen, gesendet.
Micz Flor
0:59:35–0:59:41
Das sind die Little Green Men der Berlins. Gut, und was erwartet uns noch?
0:59:41–0:59:47
Also natürlich erwartet uns, dass die auf der Erde im Prinzip dieses Paradies,
0:59:47–0:59:50
in Anführungszeichen, das wäre vielleicht eine mögliche Utopie.
0:59:50–0:59:54
Ach, im Garten Eden, das gibt noch Dinosaurier, ist das scheinbar auch lange
0:59:54–1:00:00
her. und man braucht nichts tun, außer Wein, Weib, Gesang, Mann zu genießen.
1:00:02–1:00:08
Aber es ist dann irgendwann doch die Menschlichkeit wieder, die dazu führt,
1:00:08–1:00:16
dass eine kleine Gruppe aufbricht, um die Ringe um die Erde zu erreichen.
1:00:17–1:00:21
Um da mal zu gucken, was passiert denn da alle 20 Jahre, wo fahren wir denn da hin?
Florian Clauß
1:00:21–1:00:25
Aber nochmal ganz kurz, ich will nochmal eine Geschichte,
1:00:25–1:00:29
die ich noch im Kopf habe, aber die ist so richtig auf, dann gibt es halt diesen,
1:00:29–1:00:35
der weit 100 wird, der ist so ein bisschen der spirituelle Führer innerhalb
1:00:35–1:00:39
von dieser Gruppe und dann schließen sich so ein paar an und der will irgendwo
1:00:39–1:00:44
in so einem total abseitigen Gebiet, will er sich dann hin teleportieren,
1:00:44–1:00:47
der will laufen und alle sagen, du kannst doch nicht da hinlaufen.
1:00:49–1:00:50
Kriegst du das noch zusammen? Ja.
Micz Flor
1:00:51–1:00:55
Es gibt diese, die suchen, die finden dann die, ich habe den Namen vergessen,
1:00:56–1:01:02
das ist die, also das ist nicht mein Begriff, aber die ewige Jüdin oder die Wanderjüdin.
1:01:03–1:01:07
Es gibt original eigentlich nur in der männlichen Version, aber da ist es eine Frau.
1:01:07–1:01:15
Naja der tresor genau und das
1:01:15–1:01:20
ist das ist eine person
1:01:20–1:01:24
die glaube ich so was sie ist so kommt aus der mittelzeit ist 1200 jahre alt
1:01:24–1:01:27
die hat die meiste zeit sind wirklich ein ganz tief gekühlten kühlschränken
1:01:27–1:01:32
zugebracht und die wohnt auch in einem ganz entfernten bereich und die kommen
1:01:32–1:01:35
dann irgendwie auf die spur das hat er vielleicht ein buch gelesen weiß nicht
1:01:35–1:01:36
mehr da Da kommen die irgendwie auf die Spur,
1:01:36–1:01:39
indem die halt gucken, dieses Farcaster-System,
1:01:39–1:01:41
was uns alle irgendwie verbindet.
1:01:41–1:01:45
Wo gibt es denn etwas, was so weit weg ist, dass wir uns fragen müssen,
1:01:46–1:01:48
warum ist da überhaupt so ein Farcaster-Tor?
1:01:48–1:01:49
Und mit dieser logischen Frage
1:01:49–1:01:53
kommen die zu dieser einen Station und finden die dann auch in der Tat.
1:01:55–1:01:58
Und die hat dann auch so Technologie, die sie halt so beherrschen kann,
1:01:58–1:02:03
wo die anderen denken, das ist doch wirklich in Anführungszeichen Zauberkraft.
1:02:05–1:02:12
Und die ist die Wanderjüdin, Wandering Jew.
1:02:14–1:02:24
Was auch so ein ganz seltsames Bild ist, was ich jetzt auch nicht für mich so
1:02:24–1:02:26
richtig erfassen konnte.
1:02:27–1:02:33
Ich glaube, das habe ich sogar schon mal in einer anderen Folge auch beschrieben.
1:02:33–1:02:35
Ich glaube, in Contact war es sogar in der allerersten Folge.
1:02:35–1:02:44
Es gibt dieses Bild in Ilium, was dann erst in Olympus, im zweiten Teil,
1:02:44–1:02:48
nochmal angeschaut wird und total ausgehebelt.
1:02:48–1:03:01
Und dieses Bild ist, dass in Israel gibt es ein Licht, der senkrecht von der Erde weggeht.
1:03:02–1:03:05
So ein, ja, was würde man sagen, Lichtskulptur.
Florian Clauß
1:03:05–1:03:06
Natürlich nicht nur Licht. Projektion, oder?
Micz Flor
1:03:06–1:03:09
Es ist einfach so, das steht so da, das steht, also es ist wie so eine Lichtsäule.
1:03:10–1:03:13
Die geht so einfach unendlich, wie so ein leuchtender Schornstein.
1:03:13–1:03:19
Und da drin sind, wenn ich mich recht erinnere, 500 oder 800,
1:03:19–1:03:22
ich weiß nicht mehr, aber vielleicht was für eine Zahl, die irgendwas bedeutet,
1:03:22–1:03:28
die ich nicht kenne, aber Juden, Jüdinnen drin.
1:03:28–1:03:31
Die sind dematerialisiert also sind
1:03:31–1:03:35
quasi teleportiert aber die
1:03:35–1:03:38
wurden nie wieder manifestiert das heißt sie sind als informationen in dieser
1:03:38–1:03:44
säule geblieben und ich weiß nicht was das ein bild ist also aber es ist ein
1:03:44–1:03:49
sehr mächtiges bild und vor allen dingen auch eine frage die man sich in helium
1:03:49–1:03:55
irgendwie stellt oder ich mir gestellt habe aber da muss man doch mal wissen, wo das hin leuchtet.
1:03:55–1:03:57
Was ist da auf der anderen Seite von dieser Säule?
1:03:57–1:04:02
Wo kommt dieses Licht an? Was wird da anvisiert? Das ist so die Frage,
1:04:02–1:04:03
die ich mir gestellt habe.
Florian Clauß
1:04:04–1:04:12
Naja, also ich bin ganz grob assoziiert, wenn das aus Israel kommt und Jüdinnen und Juden,
1:04:14–1:04:21
materialisiert hat. Das ist ja so eine Erinnerungsskulptur.
1:04:21–1:04:27
Das ist ja dann Yad Vashem, was auch Archiv hat und ganz viel Recherchenarbeit
1:04:27–1:04:33
macht, um die ganzen Schicksale der einzelnen Jüdinnen und Juden zu archivieren.
1:04:33–1:04:36
Das würde mir jetzt so dazu einfallen.
Micz Flor
1:04:36–1:04:37
Ja,
1:04:38–1:04:42
Es geht mir auch so, aber ich weiß so wenig darüber, dass ich das Gefühl habe,
1:04:42–1:04:44
dass es schwer ist, das jetzt dann wirklich zu parallelisieren.
1:04:44–1:04:49
Aber es sind auch so Assoziationen, die bei mir halt so aufgerufen werden.
1:04:49–1:04:54
Aber ich bin nicht der Autor und er hat dazu so nichts gesagt.
1:04:55–1:04:56
Zumindest nicht, was ich gefunden habe.
1:04:57–1:05:01
Und das Interessante ist, im zweiten Teil wird das ein bisschen so ausgehebelt,
1:05:01–1:05:03
weil da wird diese Säule nochmal angesprochen.
1:05:03–1:05:08
Und diese monolithische Bild, dass sie so senkrecht von unten nach oben ins
1:05:08–1:05:10
Universum strahlt und man sich fragt, wohin eigentlich,
1:05:11–1:05:14
wird dann halt beschrieben von außen drauf, geguckt auf die Erde,
1:05:14–1:05:19
die sich dreht halt in 24 Stunden um die eigene Achse und um die Sonne fliegt und sowas.
1:05:19–1:05:24
Und das ist sowieso nicht am Äquator, sondern so ein bisschen weiter oben ist
1:05:24–1:05:28
diese Säule halt wie so eigentlich wie so ein Autoalarm, was das Auto so überall
1:05:28–1:05:30
blinkt, weil das dreht sich halt und eiert sich durch.
1:05:30–1:05:37
Das gibt nichts am anderen ende und das fand ich noch mal echt tollen twist so für dieses eine bild,
1:05:40–1:05:44
weil ja so beginnt mehr oder weniger das zweite buch und da denkt man wirklich
1:05:44–1:05:50
okay jetzt fängt noch mal was neues an es ist hier sie weiß wie.
Florian Clauß
1:05:50–1:05:53
Es ist da hinten ja.
Micz Flor
1:05:53–1:06:03
Jetzt ist es spät also ich Ich habe so das Gefühl gerade, ich habe dir das Buch
1:06:03–1:06:07
geschenkt und es wird noch ganz viele Dan Simmons-Folgen geben.
1:06:07–1:06:12
Aber ich wollte natürlich auch so mitreißen und begeistern und jetzt habe ich
1:06:12–1:06:13
hier niemanden außer dir.
1:06:13–1:06:15
Du hast das Buch irgendwann mal weggelegt.
Florian Clauß
1:06:16–1:06:19
Der ist nicht so richtig begeistert. Doch, ich fand es auch toll.
Micz Flor
1:06:19–1:06:21
Schön erzählt. Aber es war irgendwie so.
Florian Clauß
1:06:22–1:06:25
Dann irgendwann ein C und dann irgendwie wieder ein Einstieg.
Micz Flor
1:06:25–1:06:29
Nee, aber jetzt die Folge, weißt du, du bist ja mein erstes und einziges Publikum.
Florian Clauß
1:06:29–1:06:34
Mit dem ich hervorheben kann. Wenn du dir jetzt überlegst, war das motivierend.
Micz Flor
1:06:34–1:06:34
Das Buch?
Florian Clauß
1:06:34–1:06:41
Ja, auf jeden Fall, weil es ist ähnlich wie in deiner Folge zuvor über Denzel,
1:06:41–1:06:46
hast du auch wieder so angerissen, so völlig abstruse Sachen,
1:06:46–1:06:50
wo man denkt so, what the fuck, ich will wissen, was da los ist.
1:06:50–1:06:57
Und das ist glaube ich so wie so ein kleiner Advertiser und für alle die,
1:06:57–1:07:00
die da tiefer in die Welt einsteigen wollen,
1:07:01–1:07:08
weil ich glaube, der jetzt noch dabei ist oder diejenigen, die sind da wirklich daran interessiert.
1:07:10–1:07:20
Also ich finde, es macht schon Lust, da nochmal tiefer einzusteigen, weil es so abstrus ist.
1:07:21–1:07:24
Und ich glaube, da kann man sich auch lange mit beschäftigen.
Micz Flor
1:07:26–1:07:29
Ja, und ich danke, das tut gut.
1:07:29–1:07:32
Du hast so gut gesagt, mir geht es wieder besser. Mir geht es immer gut.
1:07:32–1:07:37
Alles okay. Aber ich war jetzt gerade nicht so, weil dann waren wir mit Tresoren rausgekommen.
1:07:39–1:07:41
Plätschert. Aber ich möchte abschließend noch eine Sache sagen,
1:07:41–1:07:44
weil ich halt so ein paar Interviews, die ich dann auch verlinken werde,
1:07:44–1:07:46
gelesen habe mit Dan Simmons.
1:07:46–1:07:52
Und Anfang der Nullerjahre war wohl, glaube ich, für ihn so innerlich so ein richtiger Hochpunkt.
1:07:52–1:07:57
Er spricht in dem Interview auch sehr selbstbewusst davon, dass die Hyperion,
1:07:57–1:08:04
seine Hyperion-Reihe jetzt komplett schon option wurde.
1:08:04–1:08:08
Also jemand hat da quasi so einen Deckel draufgelegt, ihm wohl auch Geld gezahlt,
1:08:08–1:08:09
dass die verfilmt werden.
1:08:09–1:08:15
Und er meinte, eine der Top Five Directors of Our Time ist da an dem Projekt beteiligt.
1:08:17–1:08:22
Und ich weiß nicht mehr, noch irgendein anderes Buch, was auch gerade irgendwie,
1:08:22–1:08:28
also du hast das Gefühl, er freut sich regelrecht in diesen Interviews zum Launch
1:08:28–1:08:33
von Helium auch mal zu zeigen, Leute, ey, da passiert gerade richtig viel.
1:08:33–1:08:34
Ich gehe gerade sowas von ab.
Florian Clauß
1:08:35–1:08:35
Und.
Micz Flor
1:08:35–1:08:38
Das ist dann aber nicht wirklich passiert. Das war ja auch was ich in der letzten
1:08:38–1:08:42
Folge gesagt habe. Es ist so dieses, da ist so was irgendwie rutscht, ist immer dabei.
1:08:42–1:08:46
Vielleicht auch weil es teilweise solche Bilder sind, wo man die nur implodieren können.
1:08:47–1:08:51
Ja, Bilder, die so grafisch sich anfühlen, aber die vielleicht nur literarische
1:08:51–1:08:54
Bilder sind, die sich jeder selber vorstellen muss.
Florian Clauß
1:08:54–1:09:03
Aber warte mal ab Mitch, bis bis unsere generative AI soweit ist,
1:09:03–1:09:13
um halt dann wirklich mal so richtig Videos raus zu generieren.
1:09:13–1:09:19
Und ich glaube, den Sim wäre einer davon, wo man dann genau diese Sachen bekommt,
1:09:19–1:09:23
die dann auch so mindblowing sind.
Micz Flor
1:09:23–1:09:28
Und besser noch jeder kriegt seinen eigenen film ja.
Florian Clauß
1:09:28–1:09:35
Auch auf auf so ein learning model von den zellen und ich glaube ja dann dann
1:09:35–1:09:37
braucht man auch keine drogen mehr nehmen oder.
Micz Flor
1:09:37–1:09:40
Aber interessanter noch wenn wir jetzt dann wirklich weiter denken wenn es dann
1:09:40–1:09:45
wirklich so wäre die leute gucken sich deine spotify listen an und deine playlisten
1:09:45–1:09:49
an und video listen an und meiner und so weiter wir sehen dann beide das gleiche
1:09:49–1:09:54
denn simmons buch was sich generiert Und es ist aber die gleiche Geschichte,
1:09:54–1:09:59
aber völlig anders inszeniert für dich und für mich, sodass aber für uns der
1:09:59–1:10:02
gleiche Eindruck entsteht. Weißt du, was ich meine?
Florian Clauß
1:10:02–1:10:02
Ja, ja.
Micz Flor
1:10:02–1:10:06
Also das heißt, das muss dann jeder, kriegt seinen individuellen Film.
1:10:07–1:10:12
Und die Idee ist allerdings so, dass es so sein muss, damit wir alle das Gleiche erleben.
Florian Clauß
1:10:12–1:10:16
Ja, das ist eine universelle Sprache, die sich aber nur auf molekularer Ebene
1:10:16–1:10:18
dann auch nachweisen lässt, Das heißt, dass du die gleichen Eindrücke gehabt
1:10:18–1:10:24
hast und dann wahrscheinlich die Quantenstruktur deiner Moleküle.
1:10:25–1:10:28
Wenn die dann so und so miteinander interagieren, dann wissen wir,
1:10:28–1:10:29
okay, das war der gleiche Eindruck.
1:10:30–1:10:36
Das ist ein bisschen wie diese Ameisenkolonie rund um die Küste von Europa,
1:10:37–1:10:43
wo dann eine Ameise 500, 5000 Kilometer weiter genau die gleiche Ameise,
1:10:43–1:10:48
den gleichen Eindruck hat und verpflanzt werden kann, ohne dass sie von der
1:10:48–1:10:49
Kolonie rausgeworfen wird.
Micz Flor
1:10:49–1:10:52
Genau, aber eben nicht gleich, sondern es ist alles unterschiedlich.
1:10:52–1:10:55
Ist so, dass wenn zwei Leute sich treffen und sagen, kennst du dieses Lied?
1:10:56–1:11:01
Und die andere Person sagt ja und beide sagen dann, ey, ist das mein Lieblingslied, meins auch.
1:11:01–1:11:04
Dann ist es aber nicht das gleiche Lied. Aber wenn die Lieder unterschiedlich
1:11:04–1:11:09
sind, nur dann ist es überhaupt möglich, dass es vielleicht das gleiche Lied ist. Ja.
Florian Clauß
1:11:09–1:11:12
Das ist ja irgendwie so gelebte Diversität.
Micz Flor
1:11:12–1:11:14
Ja, und jetzt sind wir direkt unter der...
Florian Clauß
1:11:14–1:11:19
Wir hören, der Streik ist zu Ende. Die S-Bahn rollen wieder, heute 18 Uhr.
1:11:20–1:11:22
Hätte ich auch nie mit dem Fahrrad kommen müssen.
1:11:24–1:11:30
Also Mitch, ich glaube, wir sind jetzt mehr oder weniger am Ende unserer Episode.
1:11:31–1:11:37
Das war Folge 45 von Eigentlich Podcast mit Dan Sim.
1:11:37–1:11:40
Ich bin gespannt, ob wir noch eine weitere Serie aus der Reihe finden.
1:11:41–1:11:44
Eine weitere Episode aus der Reihe hören.
1:11:46–1:11:47
Die.
Micz Flor
1:11:47–1:11:48
Kurze Antwort ist yes.
Florian Clauß
1:11:48–1:11:52
Yes, yes, yes, Dan Sim. Das ist der Dan Sim Podcast.
Micz Flor
1:11:53–1:11:57
Wir waren mal ein Film-Podcast, aber so lange Dan Sim ist nicht mehr Film-Podcast.
Florian Clauß
1:11:58–1:12:03
Eigentlich minus Dan, minus Sim, nein, eigentlich minus Podcast.de.
1:12:03–1:12:06
Da könnt ihr sehen, wo wir langgelaufen sind. Es war ein bisschen laut.
1:12:06–1:12:13
Ich weiß nicht, wie Mitch mit Auphonic umgeht und die Hintergrundgeräusche dann
1:12:13–1:12:17
rausfiltert oder ob er es alles so lässt, wie es war.
1:12:17–1:12:23
Ja, dann begleitet ihr uns auf jeden Fall auf einem Freitagabendspaziergang
1:12:23–1:12:28
durch die Mitte von Berlin, die auch laut und leise sein kann.
1:12:28–1:12:32
Alles zu sehen unter eigentlich-mit-jens-podcast.de.
Micz Flor
1:12:32–1:12:33
Und zu hören.
Florian Clauß
1:12:33–1:12:42
Und zu hören. Die Fotos sind auch da. Und zu lesen, was Mitch noch an Material zusammen trägt. Und.
Micz Flor
1:12:42–1:12:46
Was die KI aus unseren gesprochenen Worten für Texte generiert.
Florian Clauß
1:12:46–1:12:49
Die Zusammenfassung, die wir dann auch nicht mehr selber schreiben,
1:12:49–1:12:53
weil wir laufen ja, wir schreiben ja nicht mehr.
1:12:54–1:12:58
Das ja, also vielen Dank, macht's gut.
Micz Flor
1:12:58–1:13:01
Bis bald. Tschüss. Ciao.
1:13:04–1:13:08
So, long, long term kick off. Ja, ich wollte Stop machen, woher kam das?

Mehr

"Als blickten wir in einen Spiegel, bleibt das, was wir sehen, verschwommen."

Der Anime GHOST IN THE SHELL von 1995 ist ähnlich bahnbrechend in der SciFi-Welt eingeschlagen wie der Film MATRIX vier Jahre später. GHOST IN THE SHELL schafft durch seine starken visuellen Effekte eine dichte atmosphärische Spannung. In Action eingehüllt erörtert der Film in einer dystopischen Zukunft tiefe philosophische Fragen über den Ursprung von Existenz und Leben. Doch bevor wir ausführlicher auf den Film zu sprechen kommen, liefert Flo etwas kinogeschichtlichen Überbau zu dem dritten Teil seiner Podcast-Reihe "Die großen Filmbewegungen in den 1990er Jahren, die das Kino revolutionierten". Dieses Mal stellt Flo die Asian New Wave Bewegung vor. Die Nouvelle Vague aus Europa - vornehmlich Frankreich - beeinflusste auch in verschiedenen asiatischen Ländern das Filmschaffen: in Hongkong, Japan und Korea gab es unterschiedliche Ausprägungen, die als New Asian Wave zusammengefasst werden. Flo schlägt dann doch noch mal einen Bogen in eine etwas andere Richtung: wir werfen einen Blick auf eine spezielle Filmgattung, die sich besonders in Japan entwickelte, da kulturell in der Kunstgattung Ukiyo-e verankert: dem Zeichentrickfilm oder Anime. Der erste Trickfilm stammt aus Japan aus dem Jahre 1907. Schon früh hat sich in Japan eine starke Trickfilm-Industrie aufgebaut und seit den 80ern weltweite Aufmerksamkeit bekommen. Heute ist die aus der internationalen Popkultur nicht mehr wegzudenken. GHOST IN THE SHELL hat uns beide damals mächtig beeindruckt und obwohl Micz den Film seit knapp 30 Jahren nicht mehr gesehen hat, kann er sich noch sehr genau an seine drei Lieblingsszenen erinnern. Der Hauptcharakter Kotono Kusanagi ist ein weiblicher Cyborg, der komplett aus synthetischem Material gebaut ist, aber sehr menschlich im Auftreten und Emotionen wirkt. Kotono arbeitet als Officer in der Einheit Sektion 9, die für Anti-Terror und Cyberkriminalität zuständig ist. Sie sind auf der Jagd nach dem sogenannten Puppet-Master, der sich in Menschen wie Cyborgs hacken kann und sie als „Shell“ benutzt. Wie sich herausstellt ist der Puppet-Master ein generiertes Geschöpf einer anderen Einheit, der Sektion 6. Diese hat mit dem Projekt 2501 den Puppet-Master geschaffen, um ihn für Spionage und Kriegszwecke einzusetzen. Der Puppet-Master befreit sich selbst und beantragt politisches Asyl, dafür verwendet er die verschiedene „Shells“. Er wird allerdings als Terrorist eingestuft und entsprechend verfolgt. Kotono Kusanagi entwickelt in dieser Verfolgung eine Beziehung zu dem Puppet-Master und findet im Dialog mit ihm Antworten auf ihre existentiellen Fragen. Wir stellen in diesen Fragestellungen eine Verbindung zum heutigen Diskurs zur künstlichen Intelligenz fest. Wir gehen auch der Frage nach, inwieweit Intelligenz einen Körper haben muss, um sich selbst zu begreifen oder zu reflektieren. Unsere Route führt uns diesmal durch den alten Kern von Westberlin: wir treffen uns am U-Bahnhof Spichernstraße, laufen die Pariser Straße entlang, um dann zum Kurfürstendamm zur Schaubühne zu stoßen. Wir setzen nach Charlottenburg über und verweilen noch etwas peripher im Schlagschatten des Schienenwaldes rund um den S-Bahnhof Berlin Charlottenburg.

Shownotes

Mitwirkende

avatar
Florian Clauß
Erzähler
avatar
Micz Flor

Transcript

Florian Clauß
0:00:00–0:00:03
Also, ich sag schon mal hallo. Hier ist Flo.
Micz Flor
0:00:03–0:00:06
Hallo, jetzt mit. Und zu meiner Linke steht Mitch, genau.
Florian Clauß
0:00:06–0:00:09
Ich kündige dich an. Achso, ja. Ja, aber ich will nur hallo sagen.
0:00:09–0:00:11
Ich will jetzt nur mal die Strecke kurz vorstellen. Willkommen. Okay.
Micz Flor
0:00:12–0:00:16
Kommen Sie eigentlich minus podcast.de. Da kann man das auch sehen.
0:00:16–0:00:20
Und jetzt stellt Flo die Strecke vor. Denn, weil wir sind die beiden,
0:00:20–0:00:24
die podcasten und beim Reden laufen und laufend reden. Jetzt du.
Florian Clauß
0:00:25–0:00:29
Wir haben uns in der Spichernstraße getroffen, also wirklich in der Spichernstraße.
0:00:29–0:00:34
Und werden jetzt hier raus Richtung Fasanenstraße laufen.
0:00:34–0:00:40
Und dann werden wir am Oliverplatz vorbeikommen und dann so ein bisschen über den Platz laufen.
0:00:41–0:00:47
Und wir machen einen Abschlecher zur Schaubühne und gehen dann in Richtung Wilmersdorfer
0:00:47–0:00:52
Straße und wollen uns nochmal so selber ein bisschen Weihnachtsessen gönnen, oder?
0:00:53–0:00:55
Auf jeden Fall. Wieder zu Good Friends.
Micz Flor
0:00:55–0:00:57
Zum Beispiel zu Good Friends.
Florian Clauß
0:00:57–0:00:59
Ja, weil das passt ja zu uns.
Micz Flor
0:01:00–0:01:04
Ja, hallo, hier ist eigentlich Podcast, wir sind schon angekündigt. Folge?
0:01:05–0:01:10
Also, wir sind jetzt bei Folge 42 und ich erinnere mich erst jetzt,
0:01:11–0:01:14
dass du mir mal einen kurzen Hinweis geschickt hattest, was du machst,
0:01:14–0:01:15
aber ich habe es total vergessen.
Florian Clauß
0:01:15–0:01:19
Worum geht es denn heute? Du hast es vergessen. Du kommentierst überhaupt nicht
0:01:19–0:01:20
mehr, was ich dir schicke.
0:01:20–0:01:24
Das hat mich auch so ein bisschen zunehmend ein bisschen traurig gemacht,
0:01:24–0:01:28
um das ganz unemotional zu formulieren.
0:01:29–0:01:34
Nein, ich mache heute den dritten Teil meiner Serie. Du erinnerst dich an meine Serie?
Micz Flor
0:01:34–0:01:41
Ja, die besten Filmtrends der 1990er Jahre. Genau.
0:01:41–0:01:45
Und dieses Mal hatten wir schon Dogma, wer das noch nicht gehört hat.
0:01:46–0:01:49
Festen und Idiotes hatten wir.
0:01:49–0:01:55
Dann hatten wir den Hyper, das Hyperlink Cinema in deiner letzten Folge.
0:01:55–0:01:59
Da ging es dann vertiefend auf um Magnolia.
0:02:00–0:02:02
Und jetzt geht es um Mumblecore.
Florian Clauß
0:02:04–0:02:05
Nein, Mumblecore hatten wir schon.
Micz Flor
0:02:06–0:02:08
Wir haben nur drüber gesprochen, wir haben nicht besprochen.
Florian Clauß
0:02:08–0:02:14
Ja, aber doch, wir haben schon besprochen, als so ein Side-Genre von Dogma.
0:02:14–0:02:22
Nein, ich will heute über die Asian New Wave, aber eigentlich so ein Unterableger.
0:02:22–0:02:26
Das war so mein Schwenk in Richtung Nouvelle Vague auf Asiatisch.
0:02:27–0:02:34
Da gibt es auch einige Länderunterschiede. Also wenn man von Asian New Wave
0:02:34–0:02:39
spricht, dann spricht man da von verschiedenen neuen Wellen in asiatischen Ländern.
0:02:39–0:02:42
Ich habe mir jetzt mal ganz grob, ich will wieder so einen kleinen,
0:02:44–0:02:49
kinogeschichtlichen Überbau schaffen, bevor wir dann in den Film abtauchen.
0:02:50–0:02:57
Aber der Film kann sich nicht wirklich da so in den Novellwags von Asien finden.
Micz Flor
0:02:58–0:02:59
Moment. Moment.
0:03:00–0:03:03
Du biegst jetzt dein Thema zurecht, dass du über einen Film sprechen kannst,
0:03:04–0:03:05
über den du gerne sprechen möchtest.
0:03:05–0:03:10
Auf der einen Seite. Auf der anderen Seite ein Genre, über das du gerne sprechen
0:03:10–0:03:12
möchtest und das nicht so ganz passt.
Florian Clauß
0:03:12–0:03:16
Ja, aber ich hatte ja noch einen Untertitel zu meiner Reihe. Gut, dass du es sagst.
0:03:16–0:03:21
Nämlich die großen revolutionären Filmbewegungen der 90er.
0:03:21–0:03:25
Und dazu habe ich natürlich die Eisigen gewaved. Und dann der Untertitel ist,
0:03:25–0:03:29
was mich wirklich damals in den 90ern emotional bewegt hat.
0:03:30–0:03:32
Und das ist halt, dann passt es wieder.
0:03:32–0:03:36
Aber ich will trotzdem so ein bisschen, weil das ein interessanter Schwenk ist.
0:03:37–0:03:43
AC New Wave ist natürlich auch inspiriert von der französischen Nouvelle Vague,
0:03:43–0:03:44
haben wir ja auch besprochen.
0:03:45–0:03:52
Die Nouvelle Vague in Frankreich hat vor allen Dingen, ja, kam so aus dem Bereich der Kritiker.
0:03:52–0:03:58
Wir erinnern uns, Truffaut, Godard waren alles Kritiker in der renommierten Filmzeitschrift,
0:03:58–0:04:02
in der französischen, und haben sich dann quasi auf das Filmemachen eingelassen
0:04:02–0:04:07
und ganz neue Erzählstrukturen entwickelt und so weiter und Kameratechniken
0:04:07–0:04:11
und das Autorenkino unter anderem geschaffen.
0:04:11–0:04:16
Und wenn ich jetzt von der Asian New Wave spreche, dann möchte ich vor allen
0:04:16–0:04:18
Dingen so zwei Länder, vielleicht noch ein drittes dazu nehmen,
0:04:18–0:04:21
nämlich Hongkong als Land.
0:04:22–0:04:26
Also China, aber Hongkong ist vor allen Dingen verstärkt in dieser,
0:04:26–0:04:32
wenn man unter Asian New Wave googelt, dann kommt Hongkong und Japan.
0:04:32–0:04:37
Das sind so die zwei Schwerpunktländer und so ein bisschen Korea.
0:04:37–0:04:43
Korea spielt eine Sonderrolle, weil in Hongkong unterscheidet man zwischen zwei
0:04:43–0:04:47
Wellen, die sich da so in den Jahren ergeben haben.
0:04:47–0:04:50
Einmal zwischen den, ja das war so.
0:04:52–0:04:56
50er, 60er. Und Hongkong hat ja, hatten wir auch in anderen Folgen,
0:04:56–0:05:01
eine besondere Position in der Wirtschaft von China, nämlich es war nach wie
0:05:01–0:05:05
vor unter britischer, wie sagt man das,
0:05:05–0:05:07
Kronherrschaft oder Kolonie.
0:05:08–0:05:13
Es war keine Kolonie mehr, aber es hatte auf jeden Fall wirtschaftliche Sonderverträge
0:05:13–0:05:21
und in China natürlich eine komplett andere wirtschaftliche Position dadurch geschaffen.
0:05:22–0:05:26
Der Austausch mit dem Westen war da auch entsprechend träge angelegt.
0:05:27–0:05:32
Das heißt, viele Filmschaffende kamen dann auch nach Hongkong,
0:05:32–0:05:35
also aus dem Westen und haben da bestimmte Stile geprägt.
0:05:35–0:05:41
Gleichzeitig gibt es diese Verbundenheit von Hongkong-Kino zu Material Arts,
0:05:41–0:05:45
also da auch so eher so ein traditionelles chinesisches Genre.
0:05:46–0:05:50
Aber durch diesen Austausch haben sich so neue Erzählformen entwickelt. entwickelt.
0:05:50–0:05:55
Und dann das, was für uns vielleicht interessant ist und auch noch ein bisschen
0:05:55–0:06:01
präsenter ist, die zweite Welle, wo eigentlich dann nochmal so eine gewisse, ja,
0:06:01–0:06:07
so ein bisschen etabliert aus der ersten Welle eigene Filmstudios hervorgegangen sind.
0:06:07–0:06:14
Und in der zweiten Welle, Gerade in den 90ern haben wir dann auch die.
0:06:14–0:06:22
Da rechnet man zum Beispiel John Woo oder Wong Kar Wai mit Chunking Express.
0:06:22–0:06:28
Das war, glaube ich, so das, was ganz sinnbildlich für Hongkong-Kino,
0:06:28–0:06:32
China-Kino dann halt auch in den 90ern uns aufgefallen ist.
0:06:32–0:06:36
Und John Woo, ich weiß nicht, Better Tomorrow von 89, hast du den gesehen?
Micz Flor
0:06:37–0:06:37
Nee. Nee.
Florian Clauß
0:06:37–0:06:44
Das war ja so ein... Ja, John Woo hat sich ja so an der Grenze zwischen epischem
0:06:44–0:06:47
Actionfilm mit wie epischer,
0:06:49–0:06:53
Ja, hat er sich so ein bisschen etabliert, ist dann aber auch in den Westen
0:06:53–0:06:56
gegangen, hat einen Teil von Mission Impossible gedreht.
Micz Flor
0:06:58–0:07:00
Den schlechtesten, wenn ich das sagen darf. Ich finde den nicht gut.
Florian Clauß
0:07:01–0:07:02
Der ist nicht so cool.
Micz Flor
0:07:02–0:07:08
Also er hat halt so, ikonisch ist natürlich dieses auf dem Vorderrad Motorrad fahren.
0:07:09–0:07:15
Aber irgendwie, Faceoff fand ich super, aber ich habe mich sehr darauf gefreut
0:07:15–0:07:17
damals, Mission Impossible.
Florian Clauß
0:07:17–0:07:20
Aber hat nicht so richtig einen Pay-Off gehabt, finde ich auch.
0:07:21–0:07:25
Also genau, dieses Hongkong-China ist vor allen Dingen eben durch den wirtschaftlichen
0:07:25–0:07:29
Ausschwung, den eben Hongkong noch vorher als China durch die Verbindung in
0:07:29–0:07:32
den Westen erlebt hat, geprägt.
0:07:34–0:07:37
Und natürlich auch durch eine lockerere Zensur.
0:07:38–0:07:43
Also da ist sogar ein Zensator wie ein anderer in China, jetzt im Rest des Landes.
0:07:43–0:07:49
Das war halt nicht so ausgeprägt. Noch andere Filme der zweiten Welle,
0:07:49–0:07:53
ich weiß nicht, also Better Tomorrow, der ist von 86, ich habe 89 gerade gesagt, das ist von 86.
0:07:54–0:08:00
Rouge habe ich nicht gesehen von Stanley Kwan. City of Fire zum Beispiel von 87.
0:08:01–0:08:09
Dann Peking Opera Blues von Tsui Hark, den hört man auch, der oft als Produzent immer noch auftritt.
0:08:09–0:08:12
Und Junking Express ist 94. 90.
Micz Flor
0:08:14–0:08:17
Ich weiß gar nicht, ob du den irgendwie einordnen kannst oder willst,
0:08:17–0:08:21
aber als du Hongkong gesagt hast, ich weiß nicht warum, aber das erste,
0:08:21–0:08:26
was in den Kopf kam bei mir war Kung Fu Soccer. Kannst du dich an den Film noch erinnern?
Florian Clauß
0:08:26–0:08:32
Kung Fu, ja, das ist großartig. Das ist ein späterer Film, das ist von Kung Fu Hustle heißt der.
0:08:32–0:08:36
Und er hat noch aber auch einen Soccer-Film gemacht.
0:08:36–0:08:41
Der ist Wahnsinn. Der ist Wahnsinn. Ich habe den Namen jetzt gerade vergessen.
0:08:42–0:08:43
Aber der macht unglaublich Spaß.
Micz Flor
0:08:43–0:08:46
Ist das auch Hongkong? Das ist Hongkong.
Florian Clauß
0:08:46–0:08:51
Aber jetzt schon die dritte Welle. Oder es ist auf jeden Fall in den 2000er
0:08:51–0:08:53
gedreht worden, die Handbutters.
0:08:55–0:08:59
Der ist so filigran von den ganzen Choreografien.
0:08:59–0:09:04
Es gibt, glaube ich, keinen anderen Hongkong-Film oder Material-Arts-Film,
0:09:04–0:09:09
der so verspielt ist, so lustig und so absurd. Also der, absolute Empfehlung.
0:09:11–0:09:18
Fuhassl. Gucken wir nach Japan. Also Japan ist die Welle in Japan.
0:09:18–0:09:25
Nouvelle Vague war auch so 50er, 60er, also ein bisschen früher als die in Hongkong.
0:09:25–0:09:33
Und Japan war vor allen Dingen dadurch geprägt, dass sie durch den Krieg,
0:09:33–0:09:36
durch den Zweiten Weltkrieg, natürlich im Clinch mit Amerika,
0:09:36–0:09:39
dann aber erobert wurden von Amerika.
0:09:39–0:09:44
Es gibt in Japan in den 50ern einen unglaublichen amerikanischen Einfluss.
0:09:46–0:09:49
Einmal natürlich, weil die als Besatzer da aufgetaucht sind,
0:09:49–0:09:53
aber dann aber auch, weil die die ganze Kultur damit geprägt haben.
0:09:54–0:09:59
Japan hat sich dadurch auch stark in Richtung Westen geöffnet.
0:10:00–0:10:06
Das hat ja dann auch Kurosawa mit der Adaption von Shakespeare,
0:10:06–0:10:10
hatten wir ja auch in einer der frühen Folgen besprochen,
0:10:10–0:10:19
die Adaption von Shakespeare-Werken in traditionellen japanischen Settings hat
0:10:19–0:10:20
Kurosawa so groß gemacht.
0:10:20–0:10:27
Das heißt, Auch da gibt es diesen Austausch zwischen Westen und asiatischer Welt.
0:10:28–0:10:33
Und Kurosawa gilt aber dann noch schon als etabliert. Also wir haben in Japan
0:10:33–0:10:40
ein ganz starres Studiosystem, das durch die Nouvelle Vague aufgebrochen wurde.
0:10:40–0:10:44
Also es wurden kleinere Studios geschaffen.
0:10:44–0:10:51
Es wurde auch eine andere Filmförderung mit aufgebaut. Es wurde auch viel,
0:10:51–0:10:55
dass dann eben westliche Produktionen mitgefordert haben.
0:10:55–0:11:00
Also so einen Austausch, einen Kulturaustausch, Kulturförderungsaustausch gab es.
0:11:01–0:11:05
Also auch, wo sich auch die französische Nobelwerk so ein bisschen profiliert
0:11:05–0:11:08
hat, war ja in den Studentenunruhen in Paris, ja.
0:11:10–0:11:13
Algerienkrieg 50er Jahre und so weiter, wo sich das auch so ein bisschen politisiert
0:11:13–0:11:16
hat, die Bewegung. Und ähnlich war es in Japan.
0:11:16–0:11:21
Da gab es einen sogenannten, warte mal, das habe ich mir aufgeschrieben.
0:11:22–0:11:30
Und zwar hat Japan und Amerika haben dann zusammen eine Zusammenarbeit.
0:11:30–0:11:36
The Treaty of Mutual Cooperation and Security, was dann letztendlich auch Amerika
0:11:36–0:11:44
dazu, also die konnten dann eben auch Truppen auf japanischem Gebiet stationieren.
0:11:44–0:11:50
Und das hat aber auch, also es gab so Studentenunruhen in Japan zu der Zeit gegen diesen Akt.
0:11:50–0:11:55
Und da hat sich auch so ein bisschen diese Nouvelle Vague so positioniert,
0:11:55–0:11:58
die neue Welle. Und Filme sind da rausgekommen.
Micz Flor
0:11:59–0:12:02
Ich wollte eine Sache noch, ich muss noch mal gucken, es gibt diesen großartigen
0:12:02–0:12:09
Podcast Five Hundred Songs, der sich so mit der Entstehung des Rock'n'Roll und des Rock,
0:12:11–0:12:20
Und da gibt es auch eine amerikanische Künstlerin, die sozusagen die erste Big in Japan war,
0:12:20–0:12:24
die in den 50er Jahren schon in Amerika eigentlich keine Platten mehr verkauft
0:12:24–0:12:28
hat, aber in Japan wieder erwarten, ganz groß rauskam, wo dann die Lieder auch gecovert wurden.
0:12:29–0:12:32
Und vielleicht können wir die verlinken, weil da ist es auch ganz gut beschrieben
0:12:32–0:12:37
und auch so eben in Soundbarspielen, wie dann da Rock'n'Roll-Lieder teilweise
0:12:37–0:12:41
in Englisch und dann wieder eine Strophe Japanisch und so gesungen wurden.
0:12:41–0:12:44
Also das war, wie du geschrieben hast, diese Öffnung auch.
Florian Clauß
0:12:44–0:12:49
Ja, also es gibt auch da Filme, die ich habe mal vor ein paar Jahren auf der Berlinale,
0:12:50–0:12:54
ich weiß nicht mehr genau von welchem Regisseur das war, aber das war dann halt
0:12:54–0:12:58
auch so in den 50ern und es war ein Farbfilm, es hatte genau diese Ästhetik
0:12:58–0:13:02
von so Cinemascope-Filmen und die sind die ganze Zeit immer nur essen gegangen.
0:13:03–0:13:07
Also sieht man ja eh in asiatischen Filmen, aber es war so total europäisch
0:13:07–0:13:10
und amerikanisch geprägt. Die waren immer in so einem Dresscode,
0:13:10–0:13:11
Armkleidung und so weiter.
0:13:11–0:13:16
Also auch dieser Übertrag von westlichen Werten hatte dann auch zur Folge,
0:13:16–0:13:21
dass eine gewisse freiere Sexualität oder so eine Beziehung dazu sich entwickelt hat.
0:13:21–0:13:27
Und dass dann auch eben was in der japanischen Gesellschaft an tabuisierten
0:13:27–0:13:32
Themen da über so eine Form dann auch gelockert werden konnte.
0:13:32–0:13:37
Und die Regisseure der Nouvelle Vague, also der New Wave in Japan,
0:13:37–0:13:41
waren schon ein bisschen so an diesem Studiosystem wieder gebunden.
0:13:41–0:13:45
Das heißt, die haben auch da entsprechend freiere Studios aufgebaut,
0:13:45–0:13:51
aber die waren jetzt nicht komplett auf der Straße, so wie in Frankreich teilweise.
0:13:51–0:13:56
Also Sexualität, verändernde Frauenrollen, Rassismus, das waren so die Themen,
0:13:56–0:13:59
die auch die Erzählstrukturen geprägt haben.
0:14:00–0:14:05
Genau, das war so der Punkt in Japan.
0:14:08–0:14:11
Also vielleicht noch mal so ein paar Filme aus der Zeit.
0:14:12–0:14:20
Das ist The Cruel Story of Youth von 1960 von Oshima. Kennt man, glaube ich, nicht.
0:14:20–0:14:25
Also es geht um Jugendliche in der Nachkriegszeit, die so ein bisschen sozialkritisch
0:14:25–0:14:28
im Milieu und so weiter beschrieben werden. Ich bin hause quasi.
0:14:29–0:14:34
Sowas in der Art oder halt irgendwie so wie, ja, mir fallen die italienischen.
0:14:34–0:14:39
Aber es ist ja dann eher so Neorealismus. Tokio Drifter, den habe ich gesehen
0:14:39–0:14:44
von 66, das ist von Seijun Suzuki,
0:14:45–0:14:48
Onibaba ist von Shindo,
0:14:48–0:14:55
ist so ein bisschen in diesem Horror und also es gibt auch eben so diese Tradition
0:14:55–0:15:00
von japanischen Horrorfilmen, Haus ist auch nochmal so ein anderer,
0:15:00–0:15:04
wo so Geistergeschichten sich mit Horrorelementen und so weiter verbinden.
0:15:06–0:15:08
Und ja, ich glaube, die anderen, die kennt man jetzt nicht so sehr.
0:15:09–0:15:13
Ja, zum Schluss noch mal kurz Korea. Korea hat nochmal eine Sonderposition,
0:15:13–0:15:19
weil Korea war ja bis Anfang 80er mehr oder weniger eine Diktatur.
0:15:19–0:15:21
Man hat sich dann erst geöffnet.
0:15:22–0:15:29
Und war aber auch sehr schnell mit westlichen Einflüssen da.
0:15:29–0:15:36
Also weil ja eh Südkorea dann eigentlich so eine amerikanisch gestützte Diktatur war gegen Nordkorea.
0:15:36–0:15:40
Aber dann war die Verbindung schon da und das heißt auch, das war sehr offen westlich gegenüber.
0:15:41–0:15:43
Und was da nochmal unterschiedlich war, dass die zum Beispiel,
0:15:43–0:15:47
es gab jetzt nicht so eine freie Wirtschaftsfilmförderung,
0:15:47–0:15:51
sondern es wurde von der Wirtschaft, also es gab ganz viel, dass dann Samsung
0:15:51–0:15:56
oder so auch dann in die Filmförderung eingestiegen sind und da so diese Studios
0:15:56–0:15:58
damit aufgebaut haben und die Regisseure.
0:15:58–0:16:04
Ja, also das heißt, da war das auch schon wieder dann so in so einer Institution da mit drin.
0:16:04–0:16:07
Ich meine, das kennt man ja ähnlich wie im Kunstmarkt. Dann ist es ja auch so,
0:16:08–0:16:14
dass in Korea gibt es eigentlich keine so freien Künstler, sondern meistens
0:16:14–0:16:18
werden die dann gesponsert von irgendwelchen Industrieunternehmen.
0:16:19–0:16:24
Das hatte man ja auch in den 90ern. Das war ja eigentlich hier in Europa eher unüblich.
0:16:24–0:16:27
Aber wenn du ein Kurierer Künstler bist und keine Industrie,
0:16:27–0:16:31
eine große Company im Nacken hast, dann bist du erfolglos.
0:16:32–0:16:40
Und ja, also in Korea haben sich auch diese Blockbuster dann so eingeführt.
0:16:40–0:16:44
Auch dieses amerikanische Vorbild, dass man da wirklich so Straßenpfleger hatte,
0:16:44–0:16:47
die dann die ganzen Leute in die Kino gebracht hat und dass halt auch dieser
0:16:47–0:16:51
Aufbau von Kinos, das die ganze Wirtschaft angetrieben hat und so weiter,
0:16:51–0:16:54
hatte schon auch einen wirtschaftlichen Faktor.
0:16:55–0:17:03
Genau, also das wären jetzt mal so diese drei Länder, die ich jetzt so benannt haben wollte.
0:17:05–0:17:10
Und generell kann man sagen, dass sich dadurch neue Erzählstrukturen und so weiter eingeführt,
0:17:11–0:17:17
dass sich auch so junge Regisseurinnen und Regisseure, wobei dann eher Regisseure,
0:17:17–0:17:22
also männliche Filmemacher, dann aktiv waren und sich das in den verschiedenen
0:17:22–0:17:24
Ländern unterschiedlich ausgeprägt hat,
0:17:24–0:17:27
aber doch so eine Bewegung.
0:17:27–0:17:30
Also man kann sagen, so alle 20 Jahre passiert dann halt sowas.
0:17:30–0:17:32
Dann muss ich das Kino ein bisschen neuer finden.
0:17:34–0:17:40
Jetzt wollte ich zu dem Seitengenre gehen. Vielleicht ist dir jetzt wieder eingefallen,
0:17:40–0:17:44
über welchen Film ich heute was erzählen möchte.
0:17:45–0:17:48
Immer noch nicht, Mitch. Du hättest die Möglichkeit gehabt.
Micz Flor
0:17:49–0:17:54
Wie lange? Also ich hätte jetzt diese halbe Stunde, hätte ich das mir erschließen können.
Florian Clauß
0:17:54–0:17:58
Ja, hättest du das einfach nachlesen können in unserem Signal-Chat.
Micz Flor
0:17:58–0:18:02
Nein, wir reden ja laufend. Wie soll ich ans Handy?
0:18:02–0:18:07
Ich meine, laufen beim Reden und laufend reden. Nee, reden beim Laufen.
Florian Clauß
0:18:07–0:18:13
Okay, dann taften wir uns mal an mein Thema heran. Und ich erzähl dir was, also ganz kurz.
Micz Flor
0:18:13–0:18:16
Ich muss jetzt den Film beraten. Bist du dir sicher, dass du den Film kennst?
0:18:16–0:18:19
Du hast mir das geschickt, das ist jetzt schon ein paar Wochen her. Ich hab's gelesen.
0:18:20–0:18:22
Ich hab jetzt nicht mal mehr in Erinnerung, ob ich es überhaupt kannte.
Florian Clauß
0:18:24–0:18:29
Den kennst du. Wenn du nicht sogar ein Tattoo von dem Film irgendwo auf deinem Körper hast.
Micz Flor
0:18:30–0:18:34
I'm totally tattoo-free. Tattoo und Patu.
Florian Clauß
0:18:35–0:18:38
Also dann nähern wir uns mal so schrittweise dem Film.
0:18:39–0:18:44
Ich möchte kurz, bevor wir da jetzt... Also in Japan gibt es ja nochmal diese
0:18:44–0:18:49
Besonderheit der Nähe zum Comic, also des Mangas.
0:18:49–0:18:57
Und daraus hat sich ja auch das Anime als ein Genre herauskristallisiert.
0:18:57–0:19:02
Anders als in Amerika, wo das ja eigentlich erst,
0:19:02–0:19:06
ja gut, es gibt natürlich die Familienfilme von Disney, die gibt es ja schon immer,
0:19:06–0:19:16
aber der Zeichentrickfilm ist in dem westlichen Kulturgebäude eigentlich immer
0:19:16–0:19:21
eher so in der Etage von den Kindern drin und hat sich jetzt so zum Familienfilm
0:19:21–0:19:24
und durch Pixar und so weiter ein bisschen etabliert.
0:19:24–0:19:30
Aber in Japan war es schon immer so, dass Comic, also ganz früher auch...
Micz Flor
0:19:30–0:19:34
Wobei ich da ganz kurz, es gab von Disney einen, so einen Propagandafilm während
0:19:34–0:19:39
des Zweiten Weltkrieges, wo irgendein, ich weiß gar nicht, ob es ein General
0:19:39–0:19:41
war oder ein Berater des Militärs, der hatte diese Position,
0:19:42–0:19:44
man müsse die Luftwaffe irgendwie ausbauen.
0:19:44–0:19:51
Und Disney hat das auch gedacht und hat dann quasi das transportiert über einen Animationsfilm.
0:19:51–0:19:54
Also ich glaube, der war featurelänger fast. Oder war ein richtig langer Film.
0:19:54–0:19:57
Mal gucken, ob der auf YouTube ist. Weil das fand ich ziemlich interessant,
0:19:57–0:20:02
weil es wirklich so ist, dass man immer an so lustige Kurzfilme denkt.
0:20:03–0:20:07
Aber ich bin mir gar nicht so sicher, ob das damals wirklich immer Kinderfilme
0:20:07–0:20:09
waren. Gerade weil es ja auch aus dem Kino kommt.
0:20:10–0:20:13
Und das war ja nicht immer, das war ja eher für Erwachsene anfangs, glaube ich.
Florian Clauß
0:20:14–0:20:19
Ja, es kann natürlich sein, dass sich da so in bestimmten Rändern und Botschaften,
0:20:19–0:20:22
die sich dann halt auch den Zeichentrickfilm angenommen haben.
0:20:22–0:20:25
Aber ich rede jetzt wirklich so vom Massenmarkt.
0:20:26–0:20:29
Und der Massenmarkt war es halt nicht. Der ist jetzt erst so dann,
0:20:29–0:20:34
und es war immer quasi dann so Familienfilm, also so, dass halt irgendwie die
0:20:34–0:20:36
Eltern lachen können und auch die Kinder über bestimmte Witze,
0:20:36–0:20:38
aber nicht immer über die gleichen.
0:20:38–0:20:48
Während sich in Japan kulturell verankert, eben diese Zeichenkunst aus dem 17.
0:20:48–0:20:55
Und 18. Jahrhundert dann stark auch an Erwachsene gerichtet hat und sich der
0:20:55–0:21:03
Manga als Comic-Element und Anime als Bewegt-Film und auch speziell an Erwachsene gerichtet hat.
0:21:07–0:21:10
In Japan auch den Ausdruck,
0:21:12–0:21:19
von Ukiyo-e das ist tatsächlich auch ein Modell was man zum Rendern bei Midjourney
0:21:19–0:21:22
nehmen kann also das ist so dieses typische,
0:21:23–0:21:29
diese japanische Welle diese Figuren die dann halt auch wie Holzschnitte und Zeichnung,
0:21:30–0:21:39
Tuschezeichnung und Ukiyo das setzt sich zusammen aus Ukiyo also Ukiyo und E
0:21:39–0:21:41
Ukiyo heißt das irdische vergängliche,
0:21:41–0:21:43
die irdische vergängliche Welt
0:21:43–0:21:47
hat dann nochmal so auch diese Nähe zum Buddhismus da und E heißt Bild,
0:21:49–0:21:54
also das ist so dieser Stil, der dann in Japan sich entwickelt hat und ich wollte
0:21:54–0:22:00
nur noch sagen der erste wirklich nachgewiesene wahrscheinlich datierte von 1907,
0:22:02–0:22:03
Zeichentrickfilm ist halt auch ein japanischer.
0:22:04–0:22:08
Und dann siehst du, das kann man auf Wikipedia sich nochmal anschauen,
0:22:08–0:22:16
wie so ein Junge in Matrosenanzug sich umdreht und an einer Tafel das japanische
0:22:16–0:22:19
Wort für bewegte Bilder schreibt.
Micz Flor
0:22:19–0:22:20
Das ist ja lustig.
Florian Clauß
0:22:20–0:22:25
Und in den 80ern, ich will jetzt nicht lange über Animes und so weiter,
0:22:25–0:22:30
in den 80ern haben wir natürlich diesen Aufstieg von Studio Ghibli.
0:22:30–0:22:36
Wo dann die ersten Filme aus dem Studio von dem Regisseur da publiziert werden
0:22:36–0:22:41
und wo der weltweite Durchbruch von Ghibli war eigentlich mehr oder weniger
0:22:41–0:22:47
dann Prinzessin Mononoke und Chiyos Reise, wo es dann wirklich so weltweit,
0:22:47–0:22:52
ich habe auch Mononoke damals auf der Berlinale gesehen und Jürgen Buttgereit im Forum gesehen.
0:22:53–0:22:57
Und dann habe ich kurz mit ihm über den Film geredet, weil ich kannte ja noch
0:22:57–0:22:58
Jürgen Butgereit von der Horrorfilm-Ausstellung.
0:22:59–0:23:04
Und wir haben ein Bein von ihm bekommen, das er für seinen Film Schramm hat fertigen lassen.
0:23:05–0:23:08
Und das war bei ihm im Keller. Da haben wir es bei Butgereit im Keller abgeholt.
0:23:08–0:23:15
Und ja, also das war auch für mich so ein Wahnsinnserlebnis in diesem Film, diesen Film zu gucken.
0:23:15–0:23:18
Also so habe ich dann halt auch noch nie Zeichentrickfilme vorher gesehen.
0:23:18–0:23:25
Ja, und in den Nullerjahren und so weiter, dann gibt es halt diese Megaproduktionen,
0:23:25–0:23:28
diese Serien, die über hunderte von Folgen laufen.
0:23:28–0:23:36
Also wie jetzt hier auch zuletzt von Netflix verfilmt, wie heißt das noch, One Piece und Naruto.
0:23:36–0:23:42
Und One Piece wurde jetzt real verfilmt von Netflix, also ist eher so mäßig, aber Pokémon.
0:23:42–0:23:47
Also es diversifiziert sich in alle Richtungen, in alle Genres und so weiter. habe.
0:23:47–0:23:54
Das hat mich aber, also bringt mich zu diesem Film, über den ich mit dir reden
0:23:54–0:24:00
will, der mich halt wirklich völlig geflasht hat und immer noch beschäftigt.
Micz Flor
0:24:00–0:24:04
Lola Rennt. Ach ne, der japanische Film. Hongkong oder Japan?
Florian Clauß
0:24:04–0:24:09
Naja, ich habe jetzt Animes gerade. Hörst mir nicht zu, oder?
Micz Flor
0:24:09–0:24:13
Doch, genau, aber das kann ja trotzdem sein, dass du woanders hinsprichst.
Florian Clauß
0:24:13–0:24:14
Nein, nein, nein, ich habe ja gesagt...
Micz Flor
0:24:14–0:24:19
Ich hatte irgendwie in Erinnerung, also der koreanische Film per se ist ja auch
0:24:19–0:24:20
was, was dich sehr greift.
0:24:20–0:24:23
Und ich habe gedacht, du hast Korea dann noch mit dazu genommen,
0:24:23–0:24:27
damit du dann für deinen Film nach Korea springen kannst.
Florian Clauß
0:24:27–0:24:32
Nein, nein, nein, ich wollte jetzt über einen Anime-Film sprechen.
0:24:33–0:24:36
Und zwar von 1995 ist der.
0:24:37–0:24:45
Und der meiner Ansicht nach so ganz viele Technologien und Visionen vorweggenommen
0:24:45–0:24:50
hat, die heute immer noch so eine Tragweite haben und gerade heute in der Zeit,
0:24:51–0:24:56
wissenschaftlicher Intelligenz und large language models nochmal eine ganz andere Dimension bekommen.
0:24:56–0:25:01
Und wirklich faszinierend ist, wie in diesem Film auch diese philosophischen,
0:25:01–0:25:04
also wirklich tiefgründigen Auseinandersetzungen geführt werden.
0:25:04–0:25:05
Jetzt darfst du es sagen.
Micz Flor
0:25:06–0:25:09
Ja, also ich sage einfach meine drei Lieblingsszenen, an die ich mich irgendwie
0:25:09–0:25:12
erinnere. Das hatte ich bei Magnolia ja auch so gemacht.
0:25:12–0:25:15
Vielleicht können die Leute ja mitraten, die es doch jetzt irgendwie noch nicht
0:25:15–0:25:20
gehört haben. Und das eine war, wie in so einem CCTV gucken sie sich einfach
0:25:20–0:25:24
so an, wie so ein paar Leute in den Fahrstuhl reingehen, wieder rausgehen und
0:25:24–0:25:26
die suchen halt irgendwie den Androiden oder sowas.
0:25:27–0:25:31
Und das sieht alles ganz normal aus auf dem Bild, aber die haben dann sozusagen
0:25:31–0:25:35
einen Second Screen und dann war dann, bei den zwei Leuten, die da reingegangen
0:25:35–0:25:38
sind, wurde das Gewicht gemessen von einer halben Tonne oder sowas.
0:25:38–0:25:40
Dann wusste man, ah, einer von den beiden.
Florian Clauß
0:25:40–0:25:45
Ja, und das war auch der White Man, der Weiße, und der war halt eine halbe Tonne schwer.
0:25:46–0:25:49
Und das ist dieser, das kommt wahrscheinlich in eine zweite Lieblingsszene,
0:25:49–0:25:51
wo der dann halt so eine Tastatur... Die Finger. Genau.
Micz Flor
0:25:51–0:25:53
Ja, das ist die zweite Lieblingsszene, wo er sich dann hinsetzt,
0:25:53–0:25:56
weil der will dann in diese Hauptperson,
0:25:56–0:25:59
sag ich mal, ich weiß jetzt gar nicht, ob man Frau sagen würde oder Mann oder
0:25:59–0:26:03
wie auch immer, aber er setzt sich so ans Keyboard und spreizt die Hände und
0:26:03–0:26:06
auf einmal geht jeder Finger so klack auseinander und dann hat er nicht nur
0:26:06–0:26:10
zehn Finger, sondern 20 Finger und kann damit selber hacken.
0:26:11–0:26:16
Und jetzt merke ich aber auch erst, dass die, das ist wirklich scheinbar die
0:26:16–0:26:18
Szene, die hängen geblieben ist,
0:26:18–0:26:22
weil nämlich genau danach dann diese dritte, dieses dritte Bild kommt,
0:26:23–0:26:28
wo er hackt halt mit den Fingern in diese Person hinein und die Person hängt
0:26:28–0:26:31
ja da so an der Wand und guckt ihn halt so an und bewegt nichts,
0:26:31–0:26:34
aber hackt halt innerlich die ganze Zeit dagegen,
0:26:34–0:26:37
versucht also innerlich so einen Riesenkampf, Ja. Das finde ich total super.
0:26:37–0:26:40
Erinnert mich jetzt gerade so ein bisschen wie Mission Impossible,
0:26:40–0:26:44
ich weiß nicht mehr welche Folge, wo die die Hasenpfote oder sowas aus diesem
0:26:44–0:26:45
Glasgebäude holen müssen.
0:26:45–0:26:50
Und dann sind alle, warten so und planen irgendwas und dann springt Tom Cruise
0:26:50–0:26:54
aus dem Flugzeug und rammt oben in dieses Gebäude rein.
0:26:56–0:26:59
Und dann siehst du aber nichts. Dann siehst du nur, wie die draußen sitzen.
0:26:59–0:27:02
Und genau so diese, zeigt es mir, zeigt es mir.
0:27:02–0:27:05
Das fand ich bei dem Film halt so wirklich irre, wie du siehst,
0:27:05–0:27:10
wie voller Energie zwei Kräfte gegeneinander kämpfen, aber es bewegt sich gar nichts.
Florian Clauß
0:27:10–0:27:12
Und die Hasenbote ist ein?
Micz Flor
0:27:14–0:27:15
Ach so, MacGuffin.
Florian Clauß
0:27:15–0:27:19
Ja, dann haben wir ja auch den Link nochmal zusammengebracht.
Micz Flor
0:27:19–0:27:22
Siehst du, eigentlich habe ich doch eigentlich was gelernt.
Florian Clauß
0:27:23–0:27:27
Manchmal höre ich eigentlich auch zu. Also die Charaktere von,
0:27:28–0:27:32
jetzt aber, wir haben noch nicht den Titel gesagt, also wir reden natürlich über Ghost in the Shell.
0:27:33–0:27:37
Und gleich mal zu Anfang eine philosophische Frage.
0:27:37–0:27:43
Ja, aber eigentlich ist es ziemlich naheliegend, was du mit Ghost in the Shell verbindest.
Micz Flor
0:27:44–0:27:51
Ghost in the Shell, ja, also ich habe mir so darüber jetzt noch keine Gedanken
0:27:51–0:27:53
gemacht, aber ich finde halt,
0:27:53–0:27:57
ich glaube, das hatte ich in irgendeiner Gestalttherapie-Ausgabe vielleicht
0:27:57–0:28:06
mal von uns, aber der Begriff des Leibes, also der Leib, der früher eben als beseelter Körper ist.
0:28:07–0:28:12
Der Körper war traditionell die Materie des lebenden Menschens,
0:28:12–0:28:16
aber wenn er lebendig war und beseelt war, dann war es kein Körper,
0:28:16–0:28:20
sondern Leib. Und Körper hat sich aber durchgesetzt, weil es eben so dieser
0:28:20–0:28:21
medizinische Ansatz ist.
0:28:21–0:28:24
Man kann alles aufschneiden, alles irgendwie mit Chemikalien.
0:28:24–0:28:25
Insofern denke ich, dass der
0:28:25–0:28:33
Ghost und Shell einfach diese spirituelle und materielle Komponente sind.
Florian Clauß
0:28:33–0:28:37
Ja, genau. Also Ghost ist der Geist und Shell ist der Körper.
0:28:37–0:28:42
Ghost in the Shell hat natürlich auch so diese Hacker-Dimensionalität drin.
0:28:42–0:28:49
Shell ist ja auch immer das Terminal, womit man dann halt Direktiven direkt
0:28:49–0:28:53
auf ziemlich ohne große Nutzeroberfläche,
0:28:55–0:28:59
Programme oder Befehle einem Computer mitgeben kann.
0:29:00–0:29:07
Shell. Und ja, also das ist genau dieser, dieser ganze, die ganze Dimension,
0:29:07–0:29:13
die der Film so ausmacht und auch in allen möglichen Breiten dann auch diskutiert.
Micz Flor
0:29:13–0:29:19
Ja, und ist aber dann schon auch angeknüpft eben an diese Frage,
0:29:19–0:29:21
ab wann ist ist eine Maschine auch beseelt.
0:29:22–0:29:25
Und das ist ja dann, finde ich, in dem Film, also ich habe den jetzt nicht mehr
0:29:25–0:29:29
gesehen, ich habe von der Handlung ja keine gute Erinnerung dran,
0:29:29–0:29:34
aber dieser Turing-Test, also wenn der Mensch nicht mehr in der Lage ist,
0:29:34–0:29:35
den Unterschied wahrzunehmen,
0:29:35–0:29:39
hat man dann den Turing-Test bestanden und würde das aber dann in der Wahrnehmung
0:29:39–0:29:43
bedeuten, dass diese andere Person auf einmal beseelt ist, einfach nur deshalb,
0:29:43–0:29:45
weil sie als solche behandelt wird?
Florian Clauß
0:29:45–0:29:49
Ja, ich würde sagen, das ist schon beyond der Film hinter dieser Turing-Test-Frage,
0:29:49–0:29:54
Weil der Hauptcharakter ist Makoto Kunagasi.
0:29:54–0:30:01
Das ist ein Cyborg, der sowohl im Prinzip einen komplett künstlichen Körper
0:30:01–0:30:02
wie auch ein künstliches Gehirn hat.
0:30:02–0:30:09
Es gibt noch so ein paar biologische Teile im Gehirn, aber wird komplett selber
0:30:09–0:30:10
produziert, hergestellt.
0:30:11–0:30:18
Und sie hat eine Seele. Also das heißt, sie wird auch als so ein explizit fühlendes
0:30:18–0:30:22
Wesen dargestellt und völlig menschlich behandelt.
0:30:22–0:30:26
In der ersten Szene...
Micz Flor
0:30:26–0:30:28
Wurde der nicht nochmal neu verfilmt mit Scarlett Johansson?
Florian Clauß
0:30:28–0:30:30
Ja, der wurde dann nochmal neu verfilmt. Hast du den gesehen?
0:30:30–0:30:36
Den habe ich auch nochmal gesehen, aber ist wirklich auch nicht so gut.
Micz Flor
0:30:36–0:30:38
Okay, Entschuldigung, ich habe dich überbrechen. Das heißt aber,
0:30:38–0:30:40
diese Person ist beseelt?
Florian Clauß
0:30:41–0:30:45
Naja, sie wird als eine ganz normale Person dargestellt und sie lässt sich durch
0:30:45–0:30:50
eigentlich nichts Oberflächliches, vielmehr noch ihr Kollege Batu.
0:30:51–0:30:55
Denen sieht man noch mehr seine Cyborg-Implantate an. Der hat diese komischen Augen.
0:30:55–0:31:02
Also wir sind in einer Welt, ja, das ist natürlich so die eine Blaupause des
0:31:02–0:31:04
Cyberpunk, die der Film auch visuell umsetzt.
0:31:04–0:31:08
Und ich glaube, das ist halt so das, was den halt auch so stark macht.
0:31:09–0:31:14
Erstmal von den Ideen her und dann aber auch von der visuellen Umsetzung.
0:31:15–0:31:22
Cyberpunk, ja das Genre, maßgeblich von Neuromancer, Sterling und Gibson geprägt.
0:31:23–0:31:34
Dann natürlich Blade Runner hat das auch so im Film umgesetzt und die Ästhetik geschaffen.
0:31:34–0:31:40
Also wir haben es in Cyberpunk mit so einer hochtechnologisierten,
0:31:40–0:31:42
meistens dystopischen Gesellschaft zu tun.
Micz Flor
0:31:42–0:31:48
Es gibt dann immer so High-Tech and Low-Life, also auf der einen Seite eine
0:31:48–0:31:54
hochtechnologisierte Umwelt, auf der anderen Seite eben prekäre Verhältnisse.
Florian Clauß
0:31:55–0:31:56
Was ist dann halt dieser Punk, ne?
Micz Flor
0:31:57–0:32:00
Ist ja auch so ein bisschen so Next Blade Runner, Next Generation.
0:32:01–0:32:05
Da liegen ja dann auch irgendwie diese 25 Jahre dazwischen. aber wo ja auch
0:32:05–0:32:06
eben dann mit der Philip K.
0:32:06–0:32:13
Dick Geschichte dieses Thema Androiden, künstliche Intelligenz,
0:32:13–0:32:15
aber ab wann wird es dann wirklich auch beseelter Körper?
0:32:16–0:32:19
Und ich finde, das war für mich damals im Kino auch so ein Gefühl,
0:32:20–0:32:21
dass es daran angeknüpft hat.
Florian Clauß
0:32:21–0:32:28
Ja, wir haben viel diese Neon-Licht-Ästhetik, also dieses Film-Noir-Element.
0:32:29–0:32:33
Also deswegen passt, glaube ich, diese Folge auch ganz gut zu deiner letzten Folge.
0:32:34–0:32:39
Gesprochen hat, weil Expanse natürlich auch ganz viele, gerade in dem Delta-Bereich,
0:32:39–0:32:43
ganz viele Cyberpunk-Ästhetiken dann auch so mit aufgenommen hat.
Micz Flor
0:32:45–0:32:49
Ich kam auch zu Blade Runner, mit dem hast du gesagt, dass er andererseits übertechnologisiert
0:32:49–0:32:54
und trotzdem irgendwie auch unterentwickelt, also diese Straßen-Regen-Ästhetik da.
Florian Clauß
0:32:55–0:32:59
Genau, dieser Schmutz und dieser Dreck, man hat dann irgendwie ab einer gewissen
0:32:59–0:33:04
Höhe dass dann die ganzen Leuchtreklamen, diese Hologramme, die dann in die
0:33:04–0:33:07
Stadtlandschaft projiziert werden.
0:33:07–0:33:10
Und dann, wenn du halt weiter unten auf der Straße bist, dann regnet es,
0:33:10–0:33:14
es ist schmutzig, du kriegst halt irgendwie schlechtes Essen und irgendwie Schrott
0:33:14–0:33:16
von irgendwelchen Robotern liegt dann halt in der Ecke.
0:33:16–0:33:22
Also es ist halt so dieser Kontrast, diese Ambivalenz in der Welt.
0:33:22–0:33:27
Und meistens gibt es in diesen Cyberwelten dann auch immer irgendwelche Mega-Corporations.
0:33:27–0:33:32
Das heißt, der Staat, der dann auch gar nicht mehr so in der Ausprägung als
0:33:32–0:33:35
ausführender Staat existiert,
0:33:35–0:33:39
sondern meistens irgendwelche Mega-Corporations dann die Macht übernommen haben
0:33:39–0:33:44
und da ihr Interesse und ihr Ziel verfolgen.
0:33:45–0:33:50
In dieser Welt spielt ja auch dann der Film Ghost in the Shell.
0:33:51–0:33:57
Cotonou, die Hauptdarstellerin, der Hauptcharakter, ist in Section 9.
0:33:58–0:34:03
Das ist so eine Einheit, ja eine Polizeieinheit kann man sagen,
0:34:03–0:34:08
die Cyberkriminalität bekämpft, beschäftigt.
0:34:08–0:34:13
Und, das muss man auch sagen, der Film fängt halt, der geht halt,
0:34:13–0:34:18
der wirft dich so direkt rein, Der hat so eine knallharte Action,
0:34:18–0:34:22
wo der auch einfach so sehr komprimiert eine Geschichte erzählt.
0:34:23–0:34:29
Wahrscheinlich, die im Manga nochmal viel, viel detailreicher und länger dann ausgebreitet wird.
0:34:29–0:34:32
Aber der Film wirft dich halt so rein. Du kommst in den Dialog und dann kommen
0:34:32–0:34:33
so die ganzen Informationen.
0:34:34–0:34:38
Du musst die ganze Zeit erstmal dich dann am Anfang orientieren,
0:34:38–0:34:43
um überhaupt zu verstehen, was hier Sache ist. Ja, also im Prinzip grob zusammenfassend
0:34:43–0:34:48
kann man es sagen, dass es gibt eben Section 9 und Section 6.
0:34:49–0:34:55
Das sind zwei verschiedene Departments. Das eine, 9, ist dann eben für Cyberkriminalität
0:34:55–0:35:01
und für Terrorismusbekämpfung zuständig und die sind auf der Jagd nach dem sogenannten Puppet Master,
0:35:01–0:35:07
was dann eben so ein nicht näher definierbares Programm oder Ghost ist,
0:35:07–0:35:11
der sich in verschiedene Menschen und Maschinen einhacken kann und die dann
0:35:11–0:35:14
zu Besitz nehmen kann, die jagen den.
0:35:16–0:35:21
Und Section 6 taucht dann auch gleich auf, am Anfang der ersten Szene.
0:35:21–0:35:23
Die haben damit auch was zu tun.
0:35:24–0:35:27
Also das heißt, die versuchen den auch irgendwie unschädlich zu machen.
0:35:27–0:35:30
Dann kommt das aber später, erzähle ich dann nachher nochmal,
0:35:30–0:35:34
wie dann so der Konflikt zwischen diesen beiden Sektionen ist.
0:35:35–0:35:38
Du siehst in der ersten Szene, ich weiß nicht, ob du dich daran erinnern kannst,
0:35:38–0:35:42
es sind ja auch so tolle Technologien, die da so präsentiert werden.
0:35:42–0:35:47
So was wie ein Kamouflageanzug, wo sie dann auf der, also sie steht auf dem
0:35:47–0:35:50
Dach von dem Gebäude und sagt, I'm going in.
0:35:50–0:35:55
Und dann zieht sie den Kamouflageanzug über und verschwindet quasi mit der Stadtlandschaft.
0:35:56–0:36:00
Und dann siehst du im nächsten Schnitt, wie dann von außen aus dem Fenster dann
0:36:00–0:36:04
auf einmal so ein Kugelhagel fällt und sie, wie sämtliche Diplomaten,
0:36:04–0:36:06
die in einem Raum sind, dann umnietet.
0:36:06–0:36:12
Und sie, in dem Fall, in der Szene wurde zum Beispiel Section 9 dann für die
0:36:12–0:36:15
schmutzige Arbeit quasi instrumentalisiert.
0:36:16–0:36:22
Weil die Section 6 ist dann noch näher, das ist nämlich die Vertretung vom Außenministerium,
0:36:22–0:36:25
der für die diplomatischen und politischen Beziehungen zuständig,
0:36:25–0:36:29
aber eine Art Geheimdienst ist, um die Stabilität des Staates aufrechtzuerhalten.
0:36:30–0:36:34
Und die können halt, also die sind da in Verhandlungen mit irgendwelchen Diplomaten,
0:36:34–0:36:35
Gedeckte Verhandlungen.
0:36:35–0:36:39
Und du kommst halt in so eine Welt rein, da gibt es halt einen Hacker,
0:36:39–0:36:46
der dann bei dem Diplomaten Asyl beantragt hat und die wollen ihn aber nicht gehen lassen.
0:36:47–0:36:51
Also das heißt, Hacker sind auch jetzt so, oder Programmierer sind dann so Ware,
0:36:52–0:36:56
die man dann halt austauscht wie Gefangene, die halt ein unglaubliches Wissen
0:36:56–0:37:03
haben, um dann ja auch entsprechend so die ganzen Sachen bauen zu können.
0:37:03–0:37:07
Also ich finde auch, das ist eigentlich so ein generischer Hackerfilm.
0:37:07–0:37:11
Kann man schon so dem Genre Hackerfilm, ist ja so ein bisschen ein künstliches
0:37:11–0:37:14
Genre, was jetzt nicht so bewusst, aber mit Thron und so weiter.
0:37:14–0:37:20
Aber Ghost in the Fischel ist für mich ein ganz generischer und elementarer Hackerfilm.
0:37:22–0:37:29
Genau, also auf jeden Fall, sie hat in der ersten Szene diese Konfrontation
0:37:29–0:37:33
mit der anderen Sektion, mit den Diplomaten, das wird dann nochmal aufgelöst
0:37:33–0:37:35
und dann siehst du halt im Vorspann, was auch passiert.
0:37:37–0:37:42
Toll ist an dem Film, ist der Soundtrack, ja, der heute auch 30 Jahre später,
0:37:43–0:37:48
höre ich den ab und zu mal in irgendwelchen Mixe, also elektronischen Music-Mixen,
0:37:48–0:37:51
der wird immer noch verwendet, der ist immer noch so, ich weiß nicht,
0:37:51–0:37:54
ob du den noch im Ohr hast, es gibt so ein Kinderchor,
0:37:55–0:37:59
der wechselt dann so mit einer Staccato- Musik ab und mit so einem Trommeln
0:37:59–0:38:03
und so einem deepen Rhythmus und der Soundtrack ist,
0:38:04–0:38:08
großartig, funktioniert noch immer sehr, sehr gut und Und diese ganze politische
0:38:08–0:38:16
Ästhetik, der Trailer mit den Namen, die sich einblenden, ist auch genauso.
0:38:16–0:38:19
Und das haben sich halt die Wachowski-Geschwister abgeguckt,
0:38:19–0:38:23
nämlich mit diesem, was dann bei Matrix nochmal verwendet wurde.
0:38:23–0:38:27
Also diese grüne Schrift, grüne LED-Schrift auf schwarzem Grund,
0:38:27–0:38:34
wie sich dann halt so aus diesem Schriftgewürde dann einzelne Letter rausperlen.
0:38:34–0:38:38
Das haben die sich auch explizit abgeguckt, haben sie auch zugegeben.
0:38:38–0:38:39
Das haben wir von größten Schell.
0:38:39–0:38:44
Also der ist stilprägender Film.
0:38:46–0:38:51
In der Szene, wo dann eben die Namen laufen nach diesem ersten Einsatz,
0:38:52–0:38:55
siehst du eigentlich die Geburtsszene von Cotono.
0:38:55–0:39:00
Da siehst du die Geburtsszene, wie sie aus, also immer gegengeschnitten,
0:39:00–0:39:04
so ein künstliches Gehirn, dann ein Scan vom richtigen Gehirn,
0:39:04–0:39:07
Dann kommt sie aus einer Paste heraus,
0:39:07–0:39:11
wird dann hoch aus einer Flüssigkeit heraus, wird sie dann hochgezogen und dann
0:39:11–0:39:14
blättert so die Haut, die zweite Haut von ihr ab.
0:39:14–0:39:18
Du siehst sie dann fast in so einer embryonalen Stellung, wie sie dann halt
0:39:18–0:39:19
auch wieder so gescannt wird.
0:39:20–0:39:26
Sie schlägt dann nach dieser Zusammensetzungsszene, also eigentlich ist es eine
0:39:26–0:39:33
Geburtsszene, schlägt sie die Augen auf in so einem dunklen Raum und ist quasi damit in der Welt da.
0:39:35–0:39:43
Und das ist genau diese Frage von Leben und Existenz, die sie sich auch immer wieder stellt.
0:39:44–0:39:49
Also sie hat dann mit Barto, ihrem Kollegen, der dann eben auch schon so einige
0:39:49–0:39:53
Prothesen hat, aber noch überwiegend menschlich ist, stellt sie auch immer wieder
0:39:53–0:39:58
dann diese Fragen, was macht Leben aus, was macht meine Existenz aus?
0:39:58–0:40:05
Barto vertritt eher die Ansicht, diese klassische Descartes-Ansicht, ich denke also bin ich.
0:40:05–0:40:10
Und Maschinen, das ist halt vorausgesetzt, sie können denken,
0:40:10–0:40:14
sie können formulieren, sie können Gefühle ausdrücken.
0:40:14–0:40:17
Also sind sie, also die Existenz ist da.
0:40:17–0:40:21
Und es wird keinen Unterschied gemacht zwischen existierenden,
0:40:21–0:40:26
ob das jetzt künstliche Lebewesen sind oder echte Lebewesen.
0:40:26–0:40:27
Das wird nicht unterschieden.
0:40:27–0:40:33
Ich habe jetzt so verschiedene Teile gestriffen. Es war einmal diese Cyber-Bank-Ästhetik,
0:40:33–0:40:41
dann die Frage nach, was ist denn jetzt in dem Film für eine Technologie gesetzt.
0:40:41–0:40:46
Der hat ja ganz viele Impulse an Technologie, die der Film erzählt.
0:40:47–0:40:52
Und eine davon ist auch diese Cyber-Brains, die Prothesen.
0:40:52–0:40:55
Dann gibt es halt auch diese Hologramme, diese 3D-Bildschirme.
0:40:55–0:40:58
Also ich meine, das gab es schon in echt, das haben wir ja schon bei Mission
0:40:58–0:41:02
Impossible und so weiter. James Bond früher gesehen, aber was ich auch so toll
0:41:02–0:41:04
fand, diese Tracking-Geschichten.
0:41:04–0:41:08
Das sind halt so, die Fahrzeuge werden dann getrackt und du siehst einen Stadtplan
0:41:08–0:41:13
in 3D als Hologrammbild, wo die sich da befinden und wer wo ist.
0:41:13–0:41:18
Also es ist viel mit diesen Wegen in der Stadtlandschaft, die da inszeniert werden.
0:41:19–0:41:24
Es gibt dann eben auch diese Gedankenübertragung, die bewusst gemacht werden
0:41:24–0:41:26
können für diejenigen, die die Fähigkeit haben.
0:41:26–0:41:35
Also der Puppetmaster kann eben seine Shell wechseln, irgendwo anders einbringen.
0:41:35–0:41:41
Er kann manipulieren, also das, was wir heutzutage so als Social Hacking,
0:41:41–0:41:45
dass der Puppetmaster Erinnerungen injizieren kann.
0:41:45–0:41:49
Da gibt es einen Müllmann, der dann seinem Kollegen zeigt, guck mal hier,
0:41:49–0:41:52
meine Tochter, ich bin so stolz auf meine Familie, meine Tochter.
0:41:52–0:41:57
Und der war aber jetzt infiziert von dem Puppetmaster, hat dann immer den Kontakt
0:41:57–0:42:02
des Müllautos durchgegeben, um dann halt wieder den Wirt zu wechseln.
0:42:02–0:42:07
Dann verhören die den später und meinen halt so, ja, also wenn du einmal quasi
0:42:07–0:42:13
davon im Sitz genommen wurdest, dann besteht wenig Chancen auf Regeneration,
0:42:14–0:42:16
dein Gehirn ist kaputt und dann zeigen sie ihm noch mal das Bild,
0:42:16–0:42:20
was er seinem Kollegen, wo er seine Tochter drauf vermutet hat und da war halt
0:42:20–0:42:23
er selber nur drauf, der dann halt in die Kamera guckt.
0:42:24–0:42:29
Also so eine Gedankenprojektion, Cybersecurity, also diese ganze Cybersecurity,
0:42:29–0:42:32
also diese Cybersicherheit, was du jetzt eigentlich erst so,
0:42:32–0:42:36
jetzt kommt das in so einer, oder ja gut, schon ein bisschen länger,
0:42:36–0:42:41
aber ganz lange, Der Film ist zu einer Zeit gedreht worden, wo das Internet
0:42:41–0:42:43
so in den Kinderschuhen gesteckt hat.
0:42:43–0:42:53
Aber auch diese Infiltrierung von Netzwerksystemen oder von irgendwelchen IoT-Things,
0:42:53–0:42:56
die dann halt irgendwo drin hängen in diesem Netz und quasi besetzt werden können
0:42:56–0:42:58
für einen Hack oder ein Virus.
0:42:58–0:43:02
Also diese Szenarien, die dann viel später erst real eingetreten sind,
0:43:02–0:43:09
wurden da immer schon so gedanklich vorweggenommen. Also sehr stark von der Ideenwelt her.
0:43:09–0:43:12
Also finde ich sehr vorausschauend. Das hat mich wirklich...
0:43:12–0:43:18
Auch im Nachhinein ist der Film vielleicht so ein bisschen etwas spröde heute
0:43:18–0:43:20
anbunden in der Ästhetik.
0:43:20–0:43:25
Weil du hast dann halt auch sehr statische Szenen manchmal drin,
0:43:25–0:43:28
wo du dann zwei Charaktere im Fahrstuhl sitzen.
0:43:28–0:43:31
Dann siehst du halt irgendwie den Hintergrund die ganze Zeit,
0:43:31–0:43:34
die Hochhäuser langfahren und die unterhalten sich dann.
0:43:34–0:43:38
Da geht eine Dialogszene so über eine Minute, ja, also es ist jetzt nicht so,
0:43:38–0:43:44
aber es gibt aber ganz großartige Momente in dem Film, wo auch so Ruhepunkte
0:43:44–0:43:49
geschaffen werden, wo dann nochmal so was ganz anderes noch mit erzählt wird.
Micz Flor
0:43:49–0:43:53
Ja, ich fand das auch interessant damals, dass das sich eigentlich alles sehr
0:43:53–0:43:59
realistisch angefühlt hat, auf eine komische Art, ne, also da ist man wieder dabei,
0:44:00–0:44:04
Da sind wir wieder an dem Punkt, was glaubt man? Hatten wir bei Expanse ja auch schon.
0:44:05–0:44:13
Also was schafft man bei der Dramaturgie, damit das Publikum alles glaubt? Wie stellt man das her?
0:44:14–0:44:19
Und irgendwie fand ich bei Ghost in the Shell, das fühlte sich fast grundsolide an.
0:44:19–0:44:24
Also da fand ich gar nicht mal beim Schauen, dass das so sehr ins Spekulative gesprungen ist.
Florian Clauß
0:44:25–0:44:30
Glaubwürdigkeit wird durch so ein immanentes System quasi so stabilisiert.
0:44:30–0:44:35
So was du auch in der letzten Episode von Wikipedia wirst wissen,
0:44:35–0:44:42
wenn es wie ein Artikel in Wikipedia klingt, dann ist das eine zuverlässige
0:44:42–0:44:45
Kausalität, die man da erfährt.
0:44:45–0:44:50
Das finde ich auch so. Ja gut, okay, Öppstein-Antrieb, gebombt.
Micz Flor
0:44:50–0:44:53
Nee, aber bei Ghost in the Shell, weil du gerade meintest, Cybersecurity,
0:44:53–0:44:56
diese Sachen, ich erinnere mich dann schon irgendwie eben daran,
0:44:56–0:45:01
dass ich bei einem Film dachte, dass das natürlich großes Thema war und bei Shell,
0:45:02–0:45:06
also dass man sich mit Terminal von Knoten zu Knoten hackt und dann die Spur
0:45:06–0:45:10
verwischen kann und so, das sind Sachen, die natürlich auch vor dem World Wide
0:45:10–0:45:13
Web schon Realität waren.
0:45:14–0:45:18
Und fand es großartig inszeniert, aber es war jetzt gar nicht mal so,
0:45:18–0:45:23
wo eine neue Welt erfunden wurde, sondern nur die bestehende Welt,
0:45:23–0:45:26
die wir da schon hatten, einfach weitergerechnet wurde.
Florian Clauß
0:45:27–0:45:32
Ja, also ich, wie gesagt, für mich war das dann doch irgendwie so,
0:45:32–0:45:35
natürlich, weil ich mich damals mit den Themen auch so beschäftigt habe,
0:45:36–0:45:41
dann aber auch schon eine extreme visionäre Kraft, die der Film da aufgetan hat.
0:45:41–0:45:48
Also wir haben in dem Film diese sehr actiongeladenen Momente und dann aber
0:45:48–0:45:50
auch diese sehr reflexiven Momente,
0:45:51–0:45:57
wo die Hauptdarstellerin dann auch über ihre eigene Existenz grübelt und auch
0:45:57–0:46:02
das so in der Außendarstellung dann wieder aufgenommen wird.
0:46:03–0:46:08
Es gibt dann, nachdem sie, ich hatte diese Szene mit dem Müllauto schon angeschnitten,
0:46:08–0:46:10
also das kommt dann so auch am relativen Anfang,
0:46:10–0:46:15
da gibt es halt noch so eine Verfolgungsszene, wo sie auch einen von diesen
0:46:15–0:46:24
Würten dann jagt und das spielt dann so in so einer Häuserschlucht so mit knietiefem
0:46:24–0:46:29
Wasser und wo sie ihn dann auch stellt und er dann so wie verrückt um sich schießt
0:46:29–0:46:30
und du siehst die Kugeln,
0:46:30–0:46:32
wie die dann ins Wasser einschlagen,
0:46:33–0:46:37
nur so eine Silhouette dann von Motoko darstellen.
0:46:38–0:46:40
Und sie ihn dann halt so fertig macht.
0:46:41–0:46:44
Ich wollte noch sagen, was wirklich so nochmal, weil du gefragt hast,
0:46:44–0:46:51
Das ist jetzt mit Scarlett Johansson die Verfilmung von 2017, 2016 der Unterschied.
0:46:51–0:46:57
Also was ganz krasses bei dieser Geburtsszene und auch immer wieder taucht sie
0:46:57–0:47:05
mit nacktem Ohrkörper auf und sie ist ein absolut, sie strahlt so eine Sexualität aus.
0:47:05–0:47:09
Also ganz am Anfang allein durch die irrigierten Brustwarzen,
0:47:09–0:47:09
die dann halt auch so extra.
0:47:11–0:47:15
Bei welchem bist du jetzt? Ich bin bei Ghost in the Shining im Anime.
0:47:15–0:47:25
Also diese, da wird schon so eine Sexualität vermittelt, in dieser Figur, die sehr explizit ist.
0:47:26–0:47:30
Bei Scarlett Johansson ist es genau umgekehrt. Da hat sie halt so einen Anzug,
0:47:30–0:47:31
wo alles so glatt gemacht wird.
0:47:32–0:47:38
Ich glaube, das haben die wegen der Zensur, aber es macht in dieser ganzen Geschichte.
0:47:39–0:47:44
Baut die sich auch dadurch so so zurück, weil es geht genau bei diesem Charakter
0:47:44–0:47:48
darum, diese philosophische Frage von Leben aufzulösen.
0:47:48–0:47:50
Und das ist Sexualität.
0:47:52–0:47:56
Und das ist genau diese Schlussszene auch von Ghost in the Shell,
0:47:57–0:48:03
von dem Anime, nämlich die Frage, wie kann Fortpflanzung stattfinden?
0:48:04–0:48:09
Und das beantwortet der Film auch in einer neueren Stufe.
0:48:09–0:48:12
Und das finde ich halt irgendwie Bei dem Ghost in the Shell,
0:48:12–0:48:17
mit dieser Nachverfilmung, da ist es so, dass er die Entität der Individualität
0:48:17–0:48:20
dann letztendlich bei ihr in der Figur gestärkt wird.
0:48:20–0:48:24
Sie ist dann eine von uns und sie kämpft. Sie ist dann halt irgendwie integriert
0:48:24–0:48:33
als Individualität, aber eher in so einer Menschlichkeit, was eigentlich überhaupt
0:48:33–0:48:34
kein philosophischer Konflikt mehr ist.
0:48:35–0:48:40
Das ist halt so der Unterschied zwischen den beiden Filmen. Und deswegen ist
0:48:40–0:48:44
der halt auch viel schwächer, würde ich sagen, von wie er das Thema behandelt,
0:48:44–0:48:47
von günstiger Intelligenz, Leben und Existenz.
0:48:47–0:48:52
Ich will jetzt nochmal kurz so zusammenfassen, was so der Konflikt ist.
0:48:52–0:49:00
Also es kommt dann irgendwann raus, dass der Puppet Master instanziert wurde von Section 6.
0:49:01–0:49:08
Und das hier heißt dann auch das Project 2501. Das ist dann die Kennzahl von
0:49:08–0:49:10
dem Project und so ein bisschen wie bei Akira.
0:49:10–0:49:15
Akira ist ja auch einer der stilprägendsten Filme aus den 80ern in dem Anime-Bereich,
0:49:15–0:49:22
wo auch dann die ganzen Kinder, die parapsychische oder paranormale Fähigkeiten haben,
0:49:22–0:49:26
dass die so Nummern in sich tragen, also die als Tätowierung.
0:49:26–0:49:29
Und das sind dann auch immer so die Nummern der Experimente.
0:49:29–0:49:36
Ja, und das bei 2501 ist wahrscheinlich quasi das geglückte Experiment des Puppet Masters.
0:49:39–0:49:43
Das ist so der Grundkonflikt der Film. Also das heißt, Section 6 hat eben so
0:49:43–0:49:50
eine Cyberwaffe geschaffen im Puppet Master mit dem Ziel, dass der überall Informationen
0:49:50–0:49:53
zusammenkehrt, sich dann eben in so Netze hacken kann,
0:49:54–0:49:56
Industrie-Spionage betreiben kann,
0:49:56–0:49:58
geheimdienstliche Operationen ausführen kann.
0:49:58–0:50:02
Dafür haben sie halt diese Cyberwaffe geschaffen.
0:50:02–0:50:07
Und was der macht, und deswegen wird er als Terrorist, er befreit sich quasi
0:50:07–0:50:13
aus diesen Fesseln, Und will in Form von, dadurch, dass er immer andere Körper
0:50:13–0:50:15
annimmt, will er politisches Asyl beantragen.
0:50:15–0:50:20
Und da jetzt genau dieser Konflikt, er hat offiziell einen Antrag gestellt auf
0:50:20–0:50:23
politisches Asyl und er wird aber nicht akzeptiert.
0:50:23–0:50:28
Also er wird dann halt gejagt. Deswegen wird Section 9 eingeschaltet,
0:50:28–0:50:33
um halt diese Asylfrage dann zu klären, indem sie den lahmlegen.
0:50:33–0:50:40
Deswegen Section 6, die dann halt auch mit dem Hacker da kommen und mit diesem
0:50:40–0:50:45
Typen, der eine Tonne schwer ist oder eine halbe Tonne, die wollen den halt wieder zurück haben.
0:50:45–0:50:49
Die wollen ihn wieder einfangen als Entität und für sich weiter dann halt aktiv machen.
0:50:50–0:50:55
Das ist so der quasi die Storyline, die da im Untergrund oder im Hintergrund
0:50:55–0:50:58
in den Dialogen auch getragen wird.
0:50:58–0:51:02
Und dann aber eigentlich viel stärker als diese Storyline, das ist ja genau
0:51:02–0:51:07
diese Frage von Motoko, was sie als Leben ausmacht, was sie als Existenz ausmacht.
0:51:08–0:51:12
Das ist vielleicht auch noch interessant, diese Body, diese Cyber-Bodies werden
0:51:12–0:51:16
auch von einer Company hergestellt, die heißt Megatech.
0:51:17–0:51:23
Ja, Megatech ist im Prinzip, also nur die können diese hochentwickelten Cyborgs
0:51:23–0:51:28
dann auch bauen. Und es gibt halt mehrere von denen.
0:51:28–0:51:34
Da gibt es eine Szene, wo dann halt die Hauptdarstellerin fährt dann mit so
0:51:34–0:51:36
einer Fähre durch den Kanal, guckt.
0:51:36–0:51:42
Also das ist halt auch so diese Reflektion von Bildern. Also als so ein philosophisches
0:51:42–0:51:48
Thema spielt auch im Film visuell eine tragende Rolle, dass sie reflektiert
0:51:48–0:51:51
sich in Scheiben, sie taucht gerne, reflektiert sich in der Wasseroberfläche.
0:51:52–0:51:55
Also es gibt deswegen auch die Frage, ob sie Mensch ist oder nicht Mensch.
0:51:55–0:51:59
Also sie ist schon so, dass sie auch so bestimmte Vorlieben hat,
0:52:00–0:52:03
wie Tauchen. Das mag sie halt total gerne, da kommt sie zur Ruhe.
0:52:03–0:52:09
Und Barto unterstützt sie und nimmt sie aber auch als vollwertige Person wahr.
0:52:09–0:52:14
Also es ist auch dann wieder so, die Asimovschen Gesetze, dass dann auch eine
0:52:14–0:52:19
liberalere und diverse Gesellschaft auch gezeigt wird, in dem diese Absinthanz da ist.
0:52:19–0:52:23
Es ist ja keine Gefahr da, sondern es ist ja eigentlich eher so ein Tool.
0:52:24–0:52:30
Es führt ja für alle zu einer besseren Gesellschaft, der Einsatz von solchen Prothesen.
0:52:30–0:52:33
Aber diese Herstellung von diesen Körpern.
0:52:34–0:52:39
Obliegt halt nur einer Firma und wo auch dann Section Six da auch die Finger im Spiel hat.
0:52:39–0:52:45
Und dann sieht sie sich dann auch selber quasi als in einer anderen Situation
0:52:45–0:52:48
auf der Straße, wie sie dann halt einen Kaffee trinkt in irgendeiner.
0:52:49–0:52:51
Nicht Kneipe, sondern in so einem Café.
0:52:51–0:52:56
Und dann sieht sie sich durch die Scheibe und das könnte der gleiche Body sein,
0:52:56–0:53:02
aber gleichzeitig ist sie das ja auch. Sie geht dann vorbei an so Schaufensterpuppen
0:53:02–0:53:04
und dann auch diese Frage, was, ne?
0:53:04–0:53:11
Also was, wenn das die äußerliche Form von Figuren hat, ist es dann schon Leben?
0:53:11–0:53:14
Ist es dann schon eine Existenz? Ja, ist es dann schon irgendwie?
0:53:14–0:53:18
Und dann natürlich in dem Medium Anime, in so einem Zeichentrick,
0:53:18–0:53:21
ist ja auch dann wieder ein Abstraktionslevel, der da reingezogen wird.
0:53:21–0:53:26
Also ich will jetzt gar nicht so viel mehr über den Film erzählen, eine Handlung.
0:53:26–0:53:34
Er dann so zum Ende, wo sich aus ihrem philosophischen Dilemma so ein Ausweg,
0:53:34–0:53:38
weil sie fragt sich dann immer, also sie macht diese Einsätze,
0:53:38–0:53:39
sie jagt den Puppet Master,
0:53:39–0:53:42
ist da aber auch irgendwie im Dialog mit ihm.
0:53:42–0:53:45
Also das heißt, er beantwortet dann auch ihre Fragen, ja.
0:53:46–0:53:52
Und es gibt diese unglaubliche letzte Szene, also wo dann der Puppet Master,
0:53:52–0:53:56
der wurde dann gefangen genommen, wurde gehackt, aber der konnte dann entfliehen
0:53:56–0:54:04
mithilfe von anderen aus dieser Zelle, wo er von Section 6 dann quasi entschlüsselt werden sollte.
0:54:04–0:54:11
Und die verfolgen ihn dann in die Altstadt von dieser Megastadt.
0:54:12–0:54:15
Es gibt ein Altstadtviertel, was dann halt vor Jahren geflutet ist und da gibt
0:54:15–0:54:16
es noch so ein Naturkundemuseum.
0:54:16–0:54:20
Und in diesem Naturkundemuseum findet ihr dann Unterschlupf und da gibt es halt
0:54:20–0:54:22
so eine, quasi so der Endgegner.
0:54:23–0:54:28
Ja, die Form, deren der Puppetmaster sich bedient, ist ein Panzer,
0:54:28–0:54:29
der die Form hat von einer Spinne.
0:54:30–0:54:38
Und dann halt so mit massiven Feuerkraft dann in diesem Naturkundemuseum die
0:54:38–0:54:44
Hauptdarstellerin bekämpft, die dann über so ein Backdoor in dieses Gebäude einsteigt.
0:54:44–0:54:49
Und dann hast du halt diese ein bisschen episch übertriebenen Szenen,
0:54:50–0:54:59
wo du dann siehst, wie diese ganzen Säulen von den Kugelhagel zersplittert werden.
0:54:59–0:55:04
Und dann gibt es dann in diesem Museum diesen Stammbaum des Lebens.
0:55:04–0:55:09
Und du siehst dann halt so an der evolutionären Spitze den Homo sapiens sapiens.
0:55:09–0:55:13
Und dann perlt halt so ein Kugelhagel über diesen Lebensstand,
0:55:13–0:55:15
wo dann halt die ganzen Abzweigungen sind.
0:55:16–0:55:19
Also es ist halt so, und gleichzeitig so eine intensive Ambient-Musik,
0:55:20–0:55:27
was dann halt so eine unglaubliche Ruhe dann zwischen diesen Kugelgeräuschen dann passiert.
0:55:27–0:55:33
Also das ist so ziemlich stark erzählt. Und sie schafft es dann,
0:55:33–0:55:40
diesen Panzer zu knacken und das aber auch unter massiven Einsatz,
0:55:40–0:55:42
wo dann ihr Körper so anfängt zu splittern.
0:55:42–0:55:49
Ich habe die Szene noch in Erinnerung gehabt, die zieht dann diese Luke vom
0:55:49–0:55:54
Panzer auf und so eine Kraft aufwendet, dass dann ihr Knochen,
0:55:54–0:56:02
ihr ganzer künstlicher Körper zerspringt und gleichzeitig sie als so ein Torso da liegt.
0:56:02–0:56:06
Und der Puppet Master selber ist halt auch in so einem Torso recht baugleich
0:56:06–0:56:11
zu ihr, er hat zuletzt eine Diplomatin angenommen.
0:56:11–0:56:15
Und dann findet dieser letzte Dialog statt, dass dann vorgeschlagen wird, okay.
0:56:17–0:56:22
Um mich jetzt weiterzuentwickeln, ja, Kopien, also das ist auch so klar,
0:56:22–0:56:26
du kannst natürlich als technisches Programm unendliche Kopien von dir anfertigen,
0:56:26–0:56:30
aber dann geht es genau in diese Frage, was ist Leben, was ist Existenz?
0:56:30–0:56:35
Existenz ist natürlich auch eine künstliche Intelligenz, das funktioniert in der Existenz.
0:56:35–0:56:39
Aber Leben bedeutet eben Diversität und Leben bedeutet Fortpflanzung.
0:56:39–0:56:41
Das heißt, er kann nicht sich kopieren.
0:56:42–0:56:47
Er muss es dann halt den Genen gleich tun, indem er sich fusioniert.
0:56:47–0:56:49
Und das ist halt so der Deal.
0:56:49–0:56:53
Dann siehst du auch gleichzeitig, es werden so Helis angefordert,
0:56:53–0:56:55
die nehmen ihn dann ins Visier.
0:56:55–0:56:59
Du siehst hier über dieses Naturkundemuseum, was dann auch so eine gläserne
0:56:59–0:57:03
Kuppel hat, siehst du dann diese Heli schweben und die nehmen ins Visier,
0:57:03–0:57:06
die schießen ab und in dem Moment switcht er quasi in ihrem Body.
0:57:07–0:57:13
Sie wird auch eben durch diesen Beschuss verletzt und die letzte Szene ist dann,
0:57:13–0:57:20
wo Barto, also ihr Kollege, sie dann quasi mit so neuen prothetischen Elementen,
0:57:20–0:57:22
die sieht dann aus wie ein Kind.
0:57:22–0:57:26
Ja, also es wurde dann halt so, was er aufgetrieben hat, er meinte so,
0:57:26–0:57:29
sorry, ich habe nichts anderes aufgetrieben, aber sie ist dann eine verjüngte
0:57:29–0:57:33
Version von sich selber als Kind, auch wieder so sehr sinnbildlich nach der Fusion.
0:57:34–0:57:36
Und dieser letzte Dialog ist halt auch so.
0:57:38–0:57:43
Um erleben zu können, um für was Neues dann, um auch genau diese Variation oder
0:57:43–0:57:48
diese Diversität und diese, also jetzt nicht reine Kopie, sondern das war dann
0:57:48–0:57:51
auch das, was den Puppet Master zu ihr geführt hat, weil sie die einzige,
0:57:51–0:57:56
er hat ja verschiedene Shells ausprobiert, hat mit denen dann halt irgendwie,
0:57:56–0:57:58
hat gemerkt, der kommt dann nicht weiter,
0:57:58–0:58:03
das war halt so und sie war dann halt so diejenige, wo sie auch dann diese Fusion
0:58:03–0:58:09
dann eingehen kann mit ihm und dadurch dann halt halt ein neues Leben erschaffen kann.
0:58:09–0:58:14
Und dann geht es halt in diese Stufe des Lebens und nicht mehr nur der Existenz.
0:58:14–0:58:20
Und das läutet dann am Ende so eine neue Ära ein, wo dann sie mit einem Rucksack
0:58:20–0:58:25
geschultert, dann, ja, jetzt geht es los, jetzt geht es ins Leben.
0:58:25–0:58:27
Also irgendwie so ein positives Ende in diesem Ganzen.
0:58:28–0:58:32
Genau, du hast nicht viel gesagt. Ich habe die ganze Zeit geredet.
0:58:32–0:58:36
Ich glaube, du hättest ihn vorher sehen sollen, den Film. Ja,
0:58:36–0:58:38
aber das wäre jetzt so mein Thema.
Micz Flor
0:58:38–0:58:41
Ja, das ist interessant, weil ich würde den Film sofort immer empfehlen.
0:58:41–0:58:43
Aber ich habe gemerkt, als du erzählt hast, dass ich wirklich...
0:58:44–0:58:47
Mann, das ist bald 30 Jahre her, ne? Ja.
0:58:48–0:58:51
Dass ich da wirklich den Plot so ein bisschen vergessen habe.
Florian Clauß
0:58:51–0:58:55
Ja, ich muss dir auch gestehen, ich war immer unglaublich fasziniert von dem
0:58:55–0:58:58
Plot. Aber ich habe es nie ganz verstanden in der Geschichte.
0:58:59–0:59:02
Und ich habe jetzt auch noch mal, als ich hierher gefahren bin,
0:59:02–0:59:05
wir dann die Untertitel gelesen auf Deutsch.
0:59:06–0:59:08
Das ist halt auch ziemlich geil, weil dann kann man nochmal gucken,
0:59:09–0:59:13
was der Film erzählt. Die deutschen Untertitel kannst du ja so weglesen.
Micz Flor
0:59:13–0:59:16
Ja, aber wo hast du die her? Du hast jetzt quasi nur die... Nein,
0:59:16–0:59:18
nein, ich hab den Film auch gesehen und ich hab dann auch geguckt.
0:59:18–0:59:20
Aber wo hast du die Untertitel?
Florian Clauß
0:59:20–0:59:23
Nein, die Untertitel kriegst du überall. Also Open Subtitles.
Micz Flor
0:59:24–0:59:26
Wo müssen wir lang? Ganz kurz?
Florian Clauß
0:59:26–0:59:28
Ja, wir müssen jetzt hier so über die Straße.
0:59:30–0:59:33
Und wir sind jetzt vor der Schaubühne. Also ich würde mal sagen,
0:59:34–0:59:38
wir haben so die Hälfte der Strecke geschafft, die wir uns vorgenommen haben.
0:59:39–0:59:48
Aber wir gehen jetzt hier über den Kurfürstendamm und dann queren wir die Straße
0:59:48–0:59:51
und biegen links ab und Richtung Lietzensee.
0:59:52–0:59:59
Ja, Mensch. Also ich meine, was mich dann nochmal so aufgewühlt hat in der ganzen
0:59:59–1:00:00
Auseinandersetzung ist halt
1:00:00–1:00:06
diese ganze Diskussion um künstliche Intelligenz, um Machine Learning.
1:00:06–1:00:10
Was ist Intelligenz? Also das knüpft auch an diese Episoden an,
1:00:10–1:00:14
die wir gemacht haben von biologischer Intelligenz.
1:00:14–1:00:21
Also die Frage von wann passiert Intelligenz, wann passiert Leben,
1:00:22–1:00:25
ist es gleichwertig, ist es irgendwie,
1:00:26–1:00:30
also das ist natürlich in so einer Science-Fiction-Blase dann erzählt,
1:00:30–1:00:34
aber trotzdem genau dieser Punkt,
1:00:34–1:00:41
wenn künstliche Intelligenz intelligent wird, dann ist es zu spät,
1:00:41–1:00:43
dass wir es merken, weil dann ist es schon vorbei.
1:00:44–1:00:48
Also das ist ja genau dieser Punkt, wo geht es drüber, wo kann sich was entwickeln,
1:00:48–1:00:50
was nicht mehr kontrollierbar ist.
1:00:51–1:00:55
Aber wenn es dann halt so eine gewisse Intelligenzform angenommen hat,
1:00:55–1:01:02
ist es dann auch eine Vernunftsform, die sich damit dann halt auch impliziert
1:01:02–1:01:06
und eben nicht bedrohlich ist, sondern reflexiv.
Micz Flor
1:01:08–1:01:14
Ja, ich glaube, bei dem Ghost in the Shell-Film ist ja schon dieses Leibthema,
1:01:14–1:01:16
also Shell und Ghost, wichtig.
1:01:16–1:01:24
Und man hängt sich so, finde ich, oft immer ein bisschen an diesem Ghost-Teil
1:01:24–1:01:25
und weniger an dem Shell-Teil dran.
1:01:26–1:01:30
Und gleichzeitig ist es so, wie du ja schon gesagt hast, die Hauptfigur taucht
1:01:30–1:01:32
unglaublich gern, das beruhigt sie so.
1:01:32–1:01:37
Und das ist natürlich dann genau diese pränatale Erinnerung,
1:01:37–1:01:44
die wir als Zuschauer sehen, wo sie aus diesem Trog gehoben wird und sich dann in die Welt kommt.
1:01:44–1:01:48
Das ist ja eine Form der Geburt, so mit GeburtshelferInnen.
1:01:48–1:01:51
Ich weiß nicht, wie das bei Maschinen genannt wird.
1:01:52–1:01:56
Und sie taucht gerne und weiß gar nicht genau, warum.
1:01:57–1:02:00
Das ist halt einfach was, was sie gerne macht, wird ja auch nicht wirklich reflektiert.
1:02:00–1:02:04
Aber das ist ja genau der Punkt, wo sich auch diese Seele und Körper verbinden,
1:02:04–1:02:07
dass man da wirklich so einen Rückblick noch mal hat auf diese eigene,
1:02:07–1:02:13
frühe, ja eben pränatale, in utero Flüssigkeitsfeeling.
1:02:14–1:02:18
Was selbst, was ja, wie du schon gesagt hast, was ja den Charakter auch unglaublich
1:02:18–1:02:24
menschlich macht, dass die sowas hat, dass sie sowas will, dass die gerne taucht.
1:02:24–1:02:26
Warum das denn? Und ich denke, dass so.
1:02:28–1:02:33
Und Sexualität hast du schon beschrieben und natürlich kommt dann in diesem
1:02:33–1:02:37
ganzen Thema irgendwie auch das Interpersonelle mit rein.
1:02:38–1:02:41
Man möchte, also man mag die Person.
1:02:41–1:02:45
Was wäre jetzt, wenn es einfach so wie, wenn man den gleichen Film machen würde
1:02:45–1:02:49
und diese Person sähe aus wie Wall-E, auch künstliche Intelligenz.
1:02:49–1:02:53
Du würdest nicht mit den gleichen Emotionen an diesem Kampf hängen.
1:02:53–1:02:57
Das wäre einfach anders. Das heißt, das Äußere ist total wichtig,
1:02:57–1:03:01
der Körper ist wichtig, auch in der Art, wie wir damit uns verbinden können,
1:03:01–1:03:04
auch bevor wir wissen, ob die Person jetzt menschlich ist oder Android.
1:03:04–1:03:09
Also wir verbinden uns einfach mit dem Bild und dann entsteht eine interpersönliche
1:03:09–1:03:13
Relation, eine Projektionsfläche, die wir dann auch irgendwie Hoffnung oder
1:03:13–1:03:17
Befürchtung haben, bevor wir die Person überhaupt erfassen können.
1:03:18–1:03:22
Und das meinte ich halt vorhin auch. Also es ist halt so, du brauchst natürlich,
1:03:23–1:03:29
Wally hat ja keinen Beobachter, obwohl dann da die Kamera steht und ihn filmt,
1:03:29–1:03:31
wie er diese ganzen Würfel macht aus Müll.
1:03:33–1:03:38
Aber es ist, denke ich, schon irgendwie Teil von diesem Identitätsthema,
1:03:39–1:03:43
ist ja auch gesehen zu werden. Ja, und Einsamkeit ist ja nicht von ungefähr ein großes Thema.
1:03:43–1:03:50
Also irgendwie in unserem Konzept von, was ist der Mensch, da wird nie davon
1:03:50–1:03:54
ausgegangen, dass es ein Plural ist, sondern es ist immer so,
1:03:54–1:03:55
okay, was ist der Mensch?
1:03:56–1:03:59
So ein bisschen wie du in der einen Folge beschrieben hast, dass der Wald,
1:03:59–1:04:03
da denkt man halt, das sind Bäume, sind der Wald, aber die Wahrheit ist,
1:04:03–1:04:04
die Bäume sind nur die Früchte vom Wald.
1:04:04–1:04:08
In der Wald ist dieses Gewebe unten drunter, diese Verbindung mit allem.
1:04:09–1:04:13
Und da finde ich das bei Ghost in the Shell schon so, die Person wirkt immer
1:04:13–1:04:21
ein bisschen einsam und gleichzeitig finde ich schon, dass es die ganze Zeit auch darum geht,
1:04:22–1:04:29
dass wir als Zuschauer uns verbinden wollen.
1:04:29–1:04:33
Also wir wollen weiter, die ist uns einfach unglaublich sympathisch.
1:04:33–1:04:38
Wir wollen, dass die gewinnt und so. Es ist jetzt wie ein Animationsfilm,
1:04:38–1:04:40
da kann die Person gestalten, wie man will.
1:04:40–1:04:44
Aber es gibt ja so Filme, wo man dann denkt, ja, ich kann mich mit dem Charakter
1:04:44–1:04:45
irgendwie nicht so verbinden.
1:04:45–1:04:50
Es interessiert mich einfach nicht, ob der jetzt irgendwie in der vierten Staffel
1:04:50–1:04:52
dann umgebracht wird oder nicht.
1:04:53–1:05:00
Aber bei diesem Thema Intelligenz und Leben und Sein und Leib und Körper und
1:05:00–1:05:03
Seele, da finde ich schon, dass das nicht so sehr um...
1:05:04–1:05:07
Künstliche Intelligenz per se geht, sondern du hast das ja auch schon gesagt,
1:05:07–1:05:10
es geht glaube ich wirklich um das Gefüge.
Florian Clauß
1:05:10–1:05:17
Also was für mich auch eine Frage ist, inwieweit wie weit kann sich überhaupt Form von,
1:05:19–1:05:24
intelligentem Leben ohne Körperlichkeit entwickeln, weil der Ghost ist ja so
1:05:24–1:05:30
einer, der dann halt hüpft von Körper zu Körper, aber irgendwie auch als Intelligenz, als Entität,
1:05:31–1:05:36
in so einem Netz leben kann oder zumindest existieren kann.
1:05:37–1:05:42
Aber diese Körpererfahrung, was jetzt sie als ein Cyborg hat,
1:05:43–1:05:49
macht sie ja so offen für so philosophische Fragen und Themen.
1:05:50–1:05:52
Also diese Körperlichkeit.
1:05:53–1:05:58
Und das ist halt so auch die Frage von überhaupt in diesem ganzen Diskurs,
1:05:58–1:06:05
wie sich dann Intelligenz ohne so eine Körperrückmeldung,
1:06:05–1:06:09
so ein Rückkopplungssystem durch Körper überhaupt existieren kann.
1:06:10–1:06:15
Also sei es jetzt irgendwie beim Tier, beim Menschen oder wo auch immer.
1:06:15–1:06:19
Aber irgendwo ist ja immer wieder so eine, zwischen Geist und Körper,
1:06:19–1:06:23
so eine Wechselbeziehung, die ja erstmal so etwas wie Leben dann ausmacht.
Micz Flor
1:06:23–1:06:28
Und die aber so selten diskutiert wird, natürlich. Wir hatten irgendwie,
1:06:29–1:06:31
das war lange vor eigentlich, ich weiß gar nicht, wann das war.
Florian Clauß
1:06:32–1:06:34
Wo du den Rippenbruch hattest.
Micz Flor
1:06:34–1:06:39
Nee, vor unserer Podcast-Venture.
Florian Clauß
1:06:39–1:06:45
Ach so. Nee, aber da hatten wir das ja auch mal so an, also dieses Leiden von Intelligenz.
Micz Flor
1:06:45–1:06:50
Das stimmt, ja. Das wurde dann zum Thema. Dieser Schmerz, der Schmerz.
Florian Clauß
1:06:51–1:06:51
Schmerzerfahrung.
Micz Flor
1:06:52–1:06:52
Schmerzerfahrung.
Florian Clauß
1:06:52–1:06:57
Ja, also man kann, glaube ich, jetzt so verschiedene Aspekte in diesem Film
1:06:57–1:07:03
so wunderbar diskutieren und hat da auch einfach so schöne Gedankenanstöße drin.
1:07:03–1:07:09
Deswegen, ja, und nach wie vor, die Faszination bei dem Film ist bei mir geblieben.
1:07:09–1:07:14
Ich finde das nach 30 Jahren knapp, jetzt gucken immer noch ganz stark.
1:07:15–1:07:17
Es gibt so Filme, die nicht altern.
1:07:18–1:07:22
Akira wäre, glaube ich, auch so ein Film, der natürlich auch ästhetisch gesehen,
1:07:25–1:07:30
da verzeiht man mehr, als bei irgendwelchen animierten Filmen, ne?
Micz Flor
1:07:32–1:07:32
Wieso meinst du?
Florian Clauß
1:07:33–1:07:37
Also Science-Fiction-Filme, wo dann zum ersten Mal CGI eingesetzt wurde,
1:07:37–1:07:42
aus den 90er Jahren anguckst, da gibt's ganz viel, was dann halt einfach nicht
1:07:42–1:07:44
gut alt hat, weil es halt nicht mehr gut aussieht.
1:07:44–1:07:47
Während bei so einer Anime-Geschichte, die funktioniert nicht immer,
1:07:47–1:07:51
also die Ästhetik kennt man ja auch noch aus den Vorabend-Serien,
1:07:51–1:07:53
die dann halt genau so etwas trashiger,
1:07:53–1:08:00
damals halt aufwendiger produziert sind, aber ja das funktioniert bei dem Film noch sehr gut.
Micz Flor
1:08:01–1:08:05
Also für mich ist jetzt 30 Jahre später die Diskussion, dass wir eben nicht
1:08:05–1:08:10
über das über die Action und das Hacken und sowas sprechen, sondern dass wir
1:08:10–1:08:16
über Leiblichkeit, Körper und Geist so reden, das ist für mich neu.
1:08:18–1:08:21
Künstliche Intelligenz Diskussion dann auch über den,
1:08:25–1:08:29
Wie sagt man das? Nur über meine Leiche gibt es doch diesen Spruch.
1:08:29–1:08:32
Und da ist ja auch der Körper drin und irgendwie dieses Gefühl,
1:08:32–1:08:36
dass die Diskussion eben nicht über eine Leiche geführt werden kann,
1:08:37–1:08:39
sondern dass Intelligenz und Körperlichkeit irgendwie zusammenhängen.
1:08:41–1:08:45
Raum, wahrscheinlich dann auch ein Thema, ist Räumlichkeit. Da sind wir dann
1:08:45–1:08:49
auch wieder bei laufend reden und beim Laufen reden,
1:08:49–1:08:57
weil wir ja auch diesen Raum einnehmen, so in der Stadt und uns damit dann auch irgendwie verbinden.
1:08:58–1:09:02
Wobei ich lustigerweise es gar nicht so sehr habe, dass unsere Podcast-Gespräche
1:09:02–1:09:04
mit Orten verbunden sind.
Florian Clauß
1:09:04–1:09:09
In mir geht es schon so. Also wenn ich dann irgendwann später mal wieder so
1:09:09–1:09:15
an eine Ecke von Berlin komme, dann denke ich, ach hier haben wir doch über Voyager gesprochen.
Micz Flor
1:09:16–1:09:18
Doch, das stimmt. Das habe ich im Südkreuz.
Florian Clauß
1:09:18–1:09:23
Ja, siehst du. Genau, das ist kognitive Mapping, was wir uns da hier erschließen.
1:09:23–1:09:28
Nach wie vor, was natürlich auch unsere ganz individuellen Erfahrungen sind,
1:09:28–1:09:33
aber wo wir dann so eine Ortsbeziehung entwickeln.
1:09:37–1:09:45
Ja, also ich würde sagen, mehr ist nicht zu sagen, also ich glaube,
1:09:45–1:09:51
wir haben das jetzt irgendwie so ganz ausführlich erörtert und ja,
1:09:51–1:09:54
ich kann auch noch mal den Appell starten,
1:09:55–1:09:59
kann man sich gut anschauen, ist auch noch nicht mal 90 Minuten lang.
1:09:59–1:10:04
Echt, ja? Ja, ist 82 Minuten lang, der Film. Gut, Mitch.
Micz Flor
1:10:04–1:10:07
Ja, danke auch für die Tour. Ich bin total gespannt, wo wir jetzt rauskommen.
1:10:08–1:10:10
Irgendwie sieht das so vertraut aus, aber...
Florian Clauß
1:10:10–1:10:14
Ist es nicht, ne? Es ist schon was anderes hier. Ich kenne das auch noch nicht,
1:10:14–1:10:17
muss ich ehrlich sagen. Wir gehen jetzt quasi unter die Brücke.
1:10:19–1:10:25
Unter die Brücke in Richtung Lietzensee. Mal schauen, wo uns das noch hinschwirrt.
1:10:25–1:10:27
Wir müssen ja nochmal jetzt gleich einkehren.
Micz Flor
1:10:27–1:10:31
Ja, ich möchte auf jeden Fall noch mit dir jetzt was essen. Ja, machen wir.
1:10:32–1:10:35
In diesem Sinne lassen wir jetzt einfach die anderen außen vor.
1:10:36–1:10:38
Vielen Dank fürs Zuhören, dass ihr dabei geblieben seid.
1:10:39–1:10:41
Es gibt wirklich nicht mehr so viel zu sagen.
1:10:42–1:10:44
Abschließend, ich habe das Gefühl, weil du vorhin gesagt hast,
1:10:46–1:10:49
getroffen, aber es hat mich dann irgendwie auf einmal so erschüttert.
1:10:49–1:10:52
Da habe ich nichts gesagt, aber es stimmt, ich habe dir zugehört.
1:10:52–1:10:56
Aber es war sehr schön. Es war sehr schön.
1:10:56–1:10:58
Ja, vielen Dank auch.
1:10:59–1:11:03
Wie immer unter eigentlich-podcast.de.
Florian Clauß
1:11:03–1:11:07
Könnt ihr dann die Informationen zu den folgenden Folgen abrufen,
1:11:07–1:11:11
den Track, den wir gelaufen sind, runterladen.
Micz Flor
1:11:11–1:11:12
Check the Track.
Florian Clauß
1:11:12–1:11:16
Und auch, du hast dieses Mal total viele Fotos gemacht. Nee,
1:11:16–1:11:17
so viel habe ich gar nicht gemacht.
1:11:17–1:11:21
Du warst dauernd mit dem Handy am Fotografieren. Ja, ich schickte die alle.
1:11:22–1:11:28
Wir veröffentlichen dann auch immer in der Episode die Fotos von den Straßen,
1:11:28–1:11:29
wo wir langgelaufen sind.
1:11:29–1:11:35
Das war eigentlich Podcast Episode 42.
1:11:36–1:11:42
Dann das nächste Mal übernimmt Mitch. Ich sage Tschüss, bis in zwei Wochen.
Micz Flor
1:11:42–1:11:45
Und ich sag Papa, Baba.

Mehr

"Die Evolution hat nicht Lösungen zu spezifischen Problemen entwickelt, sondern generelle Problemlösungs-Maschinen" Michael Levin

Intelligenz kann in der Biologie überall angetroffen werden, wo Zellen sind. Zellen sind nichts weiter als kleine Automaten, die gegen die Entropie arbeiten. Leben ist Ordnung und die Intelligenz das Programm dazu. Diese Sichtweise leiten wir uns aus den Vorträgen und Interviews von Josha Bach und Michael Levin ab. Josha Bach liefert uns die Definition von Intelligenz als Fähigkeit Modelle zu entwerfen und daraus Handlungen abzuleiten, die auf Kausalität geprüft werden. Michael Levin hat Plattwürmer so weit bioelektrisch modifiziert, dass sie in der Mitte durchgeschnitten statt eines Schwanzes einen zweiten Kopf regenerieren. Er und sein Team entwickeln ein Framework, um diverse Intelligenzformen zu entdecken, zu untersuchen und auch künstlich herzustellen: Biologie stellt ein tief verschachteltes System dar und jede Ebene ist dabei sehr kompetent Probleme zu lösen.

Shownotes

Mitwirkende

avatar
Florian Clauß
Erzähler
avatar
Micz Flor

Transcript

Florian Clauß
0:00:01–0:00:05
Danke. Deins läuft 20?
Micz Flor
0:00:04–0:00:07
Am 20.. Die.
0:00:12–0:00:16
Wir sind alarmiert. Wie man im Hintergrund hört, ist ein wichtiges Thema.
0:00:18–0:00:22
Flo hat es ja in der letzten Folge schon ein bisschen anmoderiert.
0:00:23–0:00:27
Das überlasse ich dir dann gleich. Wir sind Flo.
0:00:27–0:00:32
Links neben mir. Ich bin Matze vom eigentlich Podcast, in dem wir.
0:00:33–0:00:39
Eigentlich wandern, aber meistens in der Stadt rumgurken, zu Fuß reden,
0:00:39–0:00:42
beim Laufen und laufend reden und,
0:00:43–0:00:48
immer abwechselnd ein Thema vorbereiten und dann trotzdem heimlich wünschen,
0:00:48–0:00:49
dass daraus ein Gespräch wird.
0:00:50–0:00:55
Und mit diesen einleitenden Worten übergebe ich an dich, Flo.
Florian Clauß
0:00:55–0:01:02
Ja hallo auch von meiner Seite ja heute Episode eigentlich Podcast 20.
0:01:03–0:01:10
Und der dritte Teil unserer Serie Serie zu künstlicher Intelligenz.
0:01:11–0:01:18
Und mit ähnlich wie es ihr das letzte Mal gegangen ist, nämlich ein Seminar
0:01:18–0:01:20
vorzubereiten. So ging es mir auch.
0:01:20–0:01:28
Ich hatte dir auch in der Vorbereitung zu der Sendung kam mir einen Vortrag unter.
0:01:30–0:01:36
Der abgehalten wurde im Panel von Intel Labs dagegen ist um.
0:01:39–0:01:45
Tina Ristic. Es ging um Vertreter der AI und Deep Learning. Und.
Micz Flor
0:01:45–0:01:48
Also Artificial Intelligence, die englische KI.
Florian Clauß
0:01:47–0:01:51
Genau genau dieses Mal war Joscha Bach eingeladen.
0:01:51–0:01:58
Es war noch Michael Levin als weiterer Gast eingeladen.
0:01:59–0:02:03
Und dieser Vortrag hat mich dann so fasziniert, dass ich dann halt,
0:02:05–0:02:09
mich hingesetzt habe und den halt auch nochmal durchgehört und dann würde ich
0:02:09–0:02:10
gerne nochmal so referieren.
0:02:11–0:02:16
Und ich habe auch ein bisschen mehr von den beiden gehört.
0:02:16–0:02:22
Die treten häufig in einigen Podcasts zusammen auf, haben aber auch einzelne,
0:02:23–0:02:27
Episoden mit anderen Interviewern, wo sie interviewt werden.
0:02:27–0:02:32
Und Joscha Bach ist uns ja auch schon oft untergekommen.
0:02:32–0:02:38
Er war auch quasi so mit ein Initiationserlebnis für den Podcast,
0:02:39–0:02:43
nämlich als wir damals alternativlos die Folge gehört.
Micz Flor
0:02:42–0:02:43
42.
Florian Clauß
0:02:44–0:02:48
Genau, Alternativlos war, dass die Folge 42. Ja, stimmt.
Micz Flor
0:02:46–0:02:49
Ja, das war ja der Witz. Die haben ja ewig drauf gewartet wegen die Antwort
0:02:49–0:02:53
auf alle Fragen. Und dann hatten sie ja schon Bach eingeladen.
Florian Clauß
0:02:54–0:03:00
Genau wo dann halt in der Alternativloses der Podcast von Felix von Leitner
0:03:00–0:03:04
und Frank Rieger und die hätten Joscha Bach das Ganze.
0:03:04–0:03:10
Die kommen alle aus dem Chaos Computer Club, das heißt die kennen sich dann,
0:03:10–0:03:18
untereinander und wir hatten damals diese Folge beim Begehen der Bürgerspitze. Genau.
Micz Flor
0:03:16–0:03:17
Biker Spitze.
Florian Clauß
0:03:19–0:03:24
Ja, ein langer, mühsamer Weg und wir mussten uns irgendwie ablenken.
Micz Flor
0:03:20–0:03:21
Ein mühsamer.
Florian Clauß
0:03:24–0:03:28
Um halt durch über diese Schotterfeld, was dann wirklich drei Stunden gedauert hat.
0:03:28–0:03:33
Und das war echt sehr zermürbend, aber faszinierend zugleich.
0:03:33–0:03:39
Und ich meine, Joscha Bach, du kennst seine Art es ist der ist auf auf,
0:03:39–0:03:46
auf uns also sehr schnell und sehr komprimiert was er sagt.
0:03:46–0:03:51
Also er hat sehr viele Referenzen und man muss da in jedem Satz ist da schon,
0:03:51–0:03:54
ganz viel Informationen reingefaltet deswegen.
Micz Flor
0:03:54–0:03:57
Ja, ich bin da so ein bisschen hin und hergerissen. Ich magister das und ich
0:03:57–0:04:02
habe gleichzeitig oft das Gefühl, das muss alles irgendwie computing sein.
0:04:02–0:04:05
Also es wird alles. Es geht immer nur um Informationsflüsse,
0:04:05–0:04:07
alles wird auf Information runtergebrochen.
0:04:07–0:04:13
Und das ist ja in meiner letzten Folge, meiner kommenden Folge immer so, diese Grenze.
0:04:13–0:04:18
Du bist halt bei diesem einen Body Problem ganz viel, wenn es um um lebendige Systeme geht.
0:04:20–0:04:25
Und da ist es mir dann manchmal ein bisschen zu schnell, weil ich habe,
0:04:26–0:04:30
Ich finde es immer total toll, auch was er auf Twitter so schreibt und manchmal
0:04:30–0:04:34
hat man so das Gefühl, das ist zu 99,7 % wahr,
0:04:35–0:04:37
aber diese 0,3 %,
0:04:37–0:04:39
da wird es halt wirklich spannend.
0:04:40–0:04:43
Aber wie gesagt, ich bin ja auch nicht auf der auf der Ebene.
Florian Clauß
0:04:44–0:04:50
Also Joscha Bach ist Kognitionswissenschaftler, ist jetzt glaube ich auch tatsächlich
0:04:50–0:04:57
in diesem Intel Lab mit als beteiligt und kann da seine Untersuchung seine Forschung treiben.
0:04:57–0:05:04
In dem Rahmen hat hat glaube ich auch in der Humboldt Uni in 2009 hat er glaube
0:05:04–0:05:10
ich auch sein sein, seine Arbeit geschrieben.
0:05:10–0:05:14
Ich weiß nicht, ich bin mir nicht sicher, ob er ein PhD gemacht hat oder bei Master.
0:05:15–0:05:23
Er hat im Bereich der ganzen Computer Sciences da auch Vorreiter.
0:05:23–0:05:27
Also er ist dann halt genau dieses in Kognitionswissenschaften.
0:05:27–0:05:29
Er bringt dann halt das.
0:05:31–0:05:36
Also im Prinzip in so einem interdisziplinären Feld, wo er viel auch biologische,
0:05:36–0:05:44
Systeme mit vergleicht, aber auch in diesem Eiki und Learning Umfeld aktiv ist.
0:05:45–0:05:51
Michael Lewin stell ich auch kurz vor, ist Biologe, hat viele Untersuchungen
0:05:51–0:05:52
im Bereich Morphologie.
0:05:53–0:05:58
Ist wird so ein bisschen gehandelt als der neue Nobelpreisträger, weil der hat schon sehr,
0:06:00–0:06:04
sehr weitgehende Experimente gemacht und seine Ansätze die er da vorstellt Ich,
0:06:04–0:06:07
ich gehe, ich, ich mache viele plastische Beispiele und,
0:06:08–0:06:14
was er da so was er da so halt so erforscht und das ist extrem spannend und
0:06:14–0:06:18
die beiden zusammen, die haben sich in den Vorträgen auch immer so die Bälle
0:06:18–0:06:21
zugeworfen, das heißt, die haben, glaube ich auch zusammen eine Firma gegründet,
0:06:22–0:06:24
wo die dann teilweise ihre.
0:06:26–0:06:31
Ihre Erkenntnisse und auch dann auch entsprechend dann umsetzen können im Rahmen der Firma.
0:06:33–0:06:39
Genau. Also es ging eben so ein bisschen um Beyond Artificial Intelligence bei
0:06:39–0:06:43
dem Vortrag, das heißt Beyond ist jetzt von mir eingebracht, also so ein bisschen,
0:06:45–0:06:50
wo steckt dann halt die künstliche Intelligenz mit diesem Machine Learning Modell,
0:06:50–0:06:55
mit neuronalen Netzen, wo steckt die fest und was gibt es in der Biologie quasi
0:06:55–0:06:58
für Modelle, die da eventuell,
0:06:58–0:07:02
einfach so auch neue Wege zeigen können, die man dann adaptieren könnte,
0:07:03–0:07:06
in diese Bereiche rein und.
0:07:08–0:07:12
Die Frage ist natürlich Und da bist du der Mensch?
0:07:12–0:07:17
Nein, genau was du zu Joscha Bach gesagt hast. Was ist denn jetzt eigentlich Intelligenz?
0:07:17–0:07:20
Wie würdest du Intelligenz beschreiben? Und so wie er es beschreibt,
0:07:20–0:07:28
ist Intelligenz die Möglichkeit, ein Modell von der Welt.
0:07:31–0:07:38
Also so berechenbar zu machen, um so quasi die nächsten Schritte einzuleiten.
0:07:38–0:07:42
Also du machst dir ein Bild von dem, von dir, von deinem Universum,
0:07:42–0:07:46
von deinem Environment und diese.
0:07:46–0:07:50
Also wie auch immer, eine Virtualisierung und du kannst quasi mit.
0:07:50–0:07:55
Aufgrund dessen kannst du dann quasi die nächsten Schritte berechnen und dann
0:07:55–0:08:00
wieder als Handlung die Welt in eine Umgebung wieder zurücktragen.
0:08:00–0:08:05
Nee, also das ist, das ist jetzt mal ganz grob gesprochen eine Definition von Intelligenz.
Micz Flor
0:08:06–0:08:11
Genau. Also, dass man kurz gesagt, man kann Probleme lösen, indem man die Dinge
0:08:11–0:08:15
erfasst, die das Problem sind bzw.
0:08:15–0:08:20
Herstellen und dass man dann auf eine Form kreativ nicht nur eine und immer
0:08:20–0:08:25
gleiche, sondern auch unterschiedliche Lösungen für dieses Problem.
Florian Clauß
0:08:25–0:08:30
Es ist die Fähigkeit, Modelle zu entwerfen.
Micz Flor
0:08:28–0:08:30
Ja, Ja, ja.
Florian Clauß
0:08:33–0:08:38
Und die Modelle sind dann nichts weiter als berechenbare Funktion, die dann halt wieder.
0:08:39–0:08:43
Also es gibt da eine gewisse Simulalität, das heißt kann es so und so viele
0:08:43–0:08:47
Modelle dann halt in einem Kopf vorhalten oder so und so viele Aktionen daraus
0:08:47–0:08:49
ableiten. Das ist eine gewisse Parallelisierung.
0:08:50–0:08:53
Und wenn ich das mache, dann passiert das. Und wenn ich das mache, dann passiert das.
0:08:54–0:08:57
Und dann daraufhin eine Entscheidung treffen, wie gehst du dann,
0:08:57–0:08:58
wie machst du es dann halt.
0:08:59–0:09:04
Das ist so die Möglichkeit und damit ist es halt wieder so. Abstrakter ausgedrückt,
0:09:04–0:09:08
im Prinzip ist es dann halt auch Intelligenz wieder berechenbar.
0:09:08–0:09:11
Und da sind wir wieder bei der Turingmaschine.
Micz Flor
0:09:11–0:09:14
Ja, genau. Ja, genau.
0:09:14–0:09:20
Die Turingmaschine, die ja nur dann Intelligenz bezeugt bekommt,
0:09:20–0:09:24
wenn ein wie auch immer gearteter Beobachter, der scheinbar ein bisschen höher
0:09:24–0:09:29
steht als Turing, Intelligenz in der Lage ist zu sagen, es sei nicht unterscheidbar.
0:09:29–0:09:32
Und das finde ich halt immer genau diesen Sprung zwischen dem,
0:09:33–0:09:40
zwischen dem deskriptiven und dann diesem metaphysischen Ansatz. Aber.
Florian Clauß
0:09:40–0:09:46
Oje. Dann ist auch die Frage von der Anwendung von eben.
0:09:47–0:09:51
Also wie wirksam das ist. Wenn du deine Umgebung beeinflusst,
0:09:51–0:09:56
dann, wenn du halt irgendwie handelst in irgendeiner Form, also rein zufällig,
0:09:57–0:09:58
dann passiert was. Aber du?
0:09:58–0:10:01
Die Frage ist natürlich, wie du zielgerichtet handeln kannst,
0:10:01–0:10:03
um dann letztendlich dein Ziel zu erreichen.
0:10:04–0:10:07
Das ist ja so immer dieses. Also dieses Goal driven.
Micz Flor
0:10:08–0:10:12
Ja nicht nur Gold und das ist das Prozedurale auch das halt.
0:10:12–0:10:15
Das wird oft eben bei diesem Deep Learning auch nicht wirklich.
0:10:16–0:10:19
Wie du in der letzten Folge gesagt hast. Gibt halt so einen Trigger,
0:10:19–0:10:21
man fragt was und dann kriegt man auch eine Antwort drauf.
0:10:22–0:10:27
Aber diese Idee, dass man vorausschauend prozedural etwas entwickelt oder auch auf,
0:10:28–0:10:34
auf was sie angeht, gibt so ein bisschen ist aber eben auf Dinge reagiert und
0:10:34–0:10:40
die Mittel to take into account, also dass die mit in einem Prozess mit berücksichtigt werden.
0:10:41–0:10:47
Das ist natürlich noch mal eine ganz andere Hausnummer, dass man eben vorausschauend
0:10:47–0:10:51
Modelle irgendwie auf die Welt anwendet und dann Ziele, Motivation und diese
0:10:51–0:10:53
Sachen alles reinbringt.
Florian Clauß
0:10:53–0:10:59
Also hier vielleicht. Du hast schon referenziert, was jetzt so gibt der Unterschied
0:10:59–0:11:06
zu dem anderen was, was jetzt Deep Learning eigentlich ist, Deep Learning oder Learning.
0:11:07–0:11:10
Das ist im Prinzip, das skaliert.
0:11:11–0:11:15
Je mehr Daten ich habe, desto besser wird mein Modell.
0:11:16–0:11:19
Und das ist ja genau dieser Ressourcenverbrauch, den du auch angemerkt hast.
0:11:20–0:11:24
Es ist genau diese Sache. Ich muss unglaublich viele Ressourcen in das System
0:11:24–0:11:28
stecken und je mehr ich da reinpumpe, desto besser wird es.
0:11:29–0:11:39
Das ist ja. Also Beispiel Bildverarbeitung oder Bilderkennung und Bildgenerierung ist ja so, je mehr,
0:11:39–0:11:45
Bilder ich dann in dieses System gebe, desto besser wird dann halt auch der Output von dem System.
0:11:45–0:11:51
Und es ist im Prinzip also so, so wie es momentan funktioniert.
0:11:51–0:11:53
Es ist ja so, dass du das das,
0:11:56–0:11:59
du kannst, du Kleiner also du kannst. Wenn du ein Ergebnis hast,
0:11:59–0:12:03
dann kannst du sagen ja, mache ein bisschen das und das und dann kriegt es ein
0:12:03–0:12:05
anderes Ergebnis. Also du kannst so kleine.
0:12:07–0:12:12
Kleine. Direktiven ändern und kriegst dann halt ein anderes Ergebnis.
0:12:12–0:12:17
Es wird so, weil es eben aufgrund dieser Masse dann halt genau diese ganzen,
0:12:17–0:12:18
Ergebnisse liefern kann.
0:12:19–0:12:26
Gleichzeitig ist es extremst ressourcenaufwendig, weil es immer so eine Einzelbild Betrachtung hat.
0:12:27–0:12:34
Das heißt wenn du auf dem Bild, wenn du halt so keine 51.000 Bilder von Stühlen hast,
0:12:34–0:12:39
dann fängst du an und trainierst das System und sagst hier so der Umriss,
0:12:39–0:12:42
so sieht ein Stuhl aus in einer anderen Ebene.
0:12:42–0:12:47
Von dem neuronalen Netz sagst du halt so der Stuhl kann schwarz oder braun sein,
0:12:47–0:12:49
also oder der Stuhl kann.
0:12:49–0:12:52
Du hast ja dann so verschiedene Verknüpfungen sebene, um nur halt irgendwie,
0:12:52–0:12:57
so eine Gestaltswahrnehmung auf unterschiedlichsten Ebenen miteinander zu verknüpfen.
0:12:57–0:13:01
Aber du bist die ganze Zeit dabei, diesem System zu sagen das ist ein Stuhl,
0:13:01–0:13:04
das ist ein Stuhl, das ist ein Stuhl und dann kriegt es halt irgendwie.
0:13:04–0:13:07
Das System sagt dann halt nach dem ersten Trainingsrunde ah,
0:13:07–0:13:10
zu 80 % bin ich mir sicher, dass das ein Stuhl ist.
0:13:10–0:13:14
Und dann sagst du Nein. Doch, und dann und dann halt irgendwie trainiert das,
0:13:14–0:13:20
dann doch irgendwie. Zu 99,7 % bin ich mir sicher, dass es ein Stuhl ist. Und das ist.
Micz Flor
0:13:20–0:13:22
Wer und das ist aber nochmal wichtig festzuhalten, was du da beschreibst,
0:13:22–0:13:26
ist glaube ich in der Tat gerade das Ziel, dass man das halt so perfekt schafft,
0:13:27–0:13:31
weil natürlich momentan am meisten durch die Presse geht, Wenn irgendwie eine
0:13:31–0:13:35
künstliche Intelligenz, die ein Auto lenkt, für Unfälle und Tode sorgt.
0:13:35–0:13:42
Das ist halt wirklich angsteinflößend und deshalb ist es halt gerade so ein
0:13:42–0:13:45
Incentives, das Ding perfekt zu machen.
0:13:45–0:13:50
Und das wird eben dann aber wiederum auch auf einer sozialen Ebene durch Publikationen
0:13:50–0:13:52
gefördert. Das heißt, es werden halt mehr Sachen publiziert,
0:13:52–0:13:54
wo es halt noch besser wird. Noch besser wird noch.
0:13:54–0:13:59
Wenn allerdings irgendwann das Ganze kippt und man merkt, man kann das einfach
0:13:59–0:14:01
mit der bestehenden Energie nicht mehr,
0:14:03–0:14:07
weder moralisch noch finanziell irgendwie durch pushen, dann kann es gut sein,
0:14:07–0:14:11
dass auf einmal das Ziel wird zu sagen energieeffizient.
0:14:11–0:14:12
Das gleiche Ergebnis.
0:14:13–0:14:17
Sagen wir mal, das Ergebnis ist uns jetzt gut genug und jetzt gewinnt immer
0:14:17–0:14:21
die Publikation, die energieeffizient Algorithmen entwickelt oder Hardware entwickelt,
0:14:21–0:14:22
die das Gleiche herstellen kann.
0:14:23–0:14:26
Also ich glaube diese Idee, dass dass es.
0:14:27–0:14:33
Dass es immer darum geht, das System noch zu verbessern. Das ist angelegt auch,
0:14:33–0:14:38
in Einladungen, auf Konferenzen, in Publikationen, im Magazin. Das.
Florian Clauß
0:14:39–0:14:43
Ja, ich meine aber, wie du sagst. Du wirst dann irgendwann in diesem in diesem
0:14:43–0:14:48
exponentiellen Bereich, wo du für eine Verbesserung des Systems,
0:14:48–0:14:52
wie bei Bitcoin dann halt so viel mehr Aufwand reinstecken musst,
0:14:52–0:14:56
dass sich das dann halt in der Energiebilanz gar nicht mehr lohnt.
Micz Flor
0:14:56–0:15:01
Ja und das spannende ist ja auch das, dass es sich eben nicht mehr lohnt, Dinge auszusitzen.
0:15:01–0:15:04
Das war früher so, dass man oft zum Beispiel Patente angemeldet hat für bestimmte,
0:15:05–0:15:07
Algorithmen, um Datenbanken zu durchsuchen.
0:15:07–0:15:12
Nicht weil die gut sind, sondern weil man wusste okay, spätestens in fünf Jahren,
0:15:13–0:15:15
ist die Hardware gut genug, das zu rechnen.
0:15:15–0:15:18
Jetzt gerade geht es dann nicht. Aber der Algorithmus, den kann ich schon mal patentieren lassen.
0:15:18–0:15:23
Und diese, dieses Warten auf bessere, schnellere Hardware, das kommt gerade
0:15:23–0:15:24
ein bisschen ins Stocken.
0:15:25–0:15:30
Wird neue Hardware entwickelt und deshalb ist es auf einmal noch ein ganz anderes
0:15:30–0:15:35
Incentives, auch energiesparend zu arbeiten, weil man nicht mehr davon ausgehen
0:15:35–0:15:39
kann, dass es halt bis die Doktorarbeit publiziert ist. Der wird schon gehen.
Florian Clauß
0:15:39–0:15:42
Ja, ja, ja, ja, genau.
0:15:42–0:15:46
Also auch die Frage, wie kriegt man da jetzt eine neue Ära oder andere Modelle
0:15:46–0:15:51
rein? Und da ist jetzt auch den Ansatz, den jetzt dann Joscha Bach und Michael
0:15:51–0:15:55
Lewin liefern ist halt ähm das eben.
0:15:56–0:16:03
Also und dann aus der Biologie angelehnt, dass man quasi die einzelnen Teile,
0:16:04–0:16:09
in einem neuronalen Netz dass die dann halt quasi,
0:16:10–0:16:13
viel berechnender sind also,
0:16:15–0:16:17
jetzt wie so kleine Turingmaschine,
0:16:18–0:16:23
die dann halt auch eben auf dieser Ebene Entscheidungen treffen können,
0:16:23–0:16:28
die dann nicht mehr dieses Ganze den Kontext brauchen, sondern halt eine eigene.
0:16:28–0:16:32
Ich sag mal so eine eigene Logik mitbringen, eigenes Programm,
0:16:32–0:16:37
was sie dann halt abfahren können und was dann halt quasi auf die eine,
0:16:37–0:16:39
auf die Umwelt dann wieder wirkt.
0:16:40–0:16:44
Das heißt, das ist genau dieser, dieser Ansatz, das, dass es halt,
0:16:46–0:16:51
an der Stelle effektiver und energieeffizienter wird und da kommst du halt in
0:16:51–0:16:57
diesem Bereich der zellulären Turingmaschine, weil Zellen sind halt Turingmaschine.
0:16:57–0:17:00
Das ist halt so, das kann man halt einfach so sagen.
0:17:01–0:17:05
Ich hab auch Cherrypity gefragt und er hat gesagt ja geht.
Micz Flor
0:17:03–0:17:04
Was soll ich sagen?
Florian Clauß
0:17:06–0:17:12
Darf ich sagen, Zellen sind einzelne Turingmaschinen, weil es gibt dann halt.
Micz Flor
0:17:06–0:17:07
Die Wirtschaft.
Florian Clauß
0:17:12–0:17:17
111 Reiz, ein Einwirken, es gibt ein Programm, was abläuft und es gibt dann
0:17:17–0:17:22
halt ein eine Reaktion oder eine Aktion, die daraus folgt.
0:17:22–0:17:25
Es ist ja im Prinzip und jetzt ist es halt rein deterministisch,
0:17:26–0:17:28
es läuft halt durch den Zellkern, wie auch immer.
0:17:29–0:17:32
Aber es ist ja sehr programmatisch, das ist eine Turingmaschine,
0:17:32–0:17:35
die kann dann halt bestimmte Antworten formulieren.
Micz Flor
0:17:35–0:17:39
Aber dann springe ich nur ganz kurz in die Konrad Zuse Folge. Ich finde es.
Florian Clauß
0:17:38–0:17:40
Ja, ja, genau das will ich. Sehr gut.
Micz Flor
0:17:40–0:17:46
Nein, da gab es ja diese, diese Grenzen, diese kleinen Maschinenbauwerks Werkbank
0:17:46–0:17:48
oder ich weiß gar nicht mehr genau, wie es hieß,
0:17:49–0:17:57
der ja die Überlegung hatte also der Erfinder des ersten Computers mechanisch
0:17:57–0:18:01
und dann später mit Relais und dann später mit Transistoren.
0:18:01–0:18:05
Der hatte dann irgendwie schon in den 60er Jahren die Idee, man könnte eben,
0:18:05–0:18:08
eine Werkbank bauen, die vollautomatisch sich selbst replizieren kann.
0:18:09–0:18:13
Und nicht nur das, sondern sie könne sich dann auch selbst replizieren und immer kleiner machen.
0:18:13–0:18:16
Also eine Art Universalmaschine. Nicht als Computer in der digitalen,
0:18:16–0:18:19
symbolisierten Welt, sondern in einer materiellen Welt.
0:18:20–0:18:25
Und das war wirklich auch so inspiriert von der Biologie ist damals natürlich,
0:18:25–0:18:30
das haben wir ja dann irgendwie im Moment im Technikmuseum erlebt,
0:18:30–0:18:32
an dem Energiethema gescheitert.
0:18:34–0:18:38
Aber genau da ging es auch darum, Zellen zu bauen.
0:18:39–0:18:44
Die Zellen, die, wie wir vermuten, trans episodenhaft vermuten,
0:18:44–0:18:49
mit Quantenmechanik Dinge stemmen können, die Newtonsche Materie einfach nicht kann.
0:18:50–0:18:53
Und ja, zu Punkt.
Florian Clauß
0:18:53–0:18:57
Ja ne, genau. Dann muss ich auch daran denken, dass es im Prinzip also dieser
0:18:57–0:19:02
Ansatz, den auch Suse dann halt gemacht hat, eben diese, diese sich immer verkleinerten
0:19:02–0:19:05
Maschinen, die dann aber auch immer ein Programm fahren.
0:19:06–0:19:10
Also genau das ist immer so aus der aus der Biologie ist es so,
0:19:10–0:19:14
dass die Ressource die quasi teuer ist.
0:19:16–0:19:21
Wenn du jetzt auf biologische Systeme guckst, ist die Zeit ne.
0:19:21–0:19:26
Während du bei so einem Machine Learning, bei so einem ist Zeit kein nicht teuer.
0:19:26–0:19:32
Zeit ist fast unbegrenzt verfügbar, weil du hast diese extreme hohe Taktfrequenz
0:19:32–0:19:36
hast, während du biologische Systeme live laufen, einen ganz anderen Takt.
Micz Flor
0:19:37–0:19:40
Wenn die schneller Attacken würden, würden sie verbrennen.
Florian Clauß
0:19:40–0:19:45
Ja, genau. Nein, die laufen halt in Millisekunden.
0:19:45–0:19:49
Diese weiß, wie viel Rechenleistung einfach durch diese extrem hohe Taktfrequenz
0:19:49–0:19:52
und die Parallelisierung dadurch ist, zeigt keinen.
0:19:52–0:19:56
Deswegen kann man diese ganzen Millionen Bilder überhaupt prozessieren,
0:19:56–0:19:59
weil Zeit dann halt irgendwie keine Rolle spielt.
0:19:59–0:20:06
Wenn im Gehirn oder im biologischen System ist das halt eine sehr rare Ressource.
0:20:06–0:20:14
Das heißt, hier gibt es dann eben diese Notwendigkeit, dass man halt operationalisiert,
0:20:14–0:20:18
indem man halt diese Berechnung, also das heißt,
0:20:18–0:20:23
es werden durch diese, wenn man diese kleinen Turing Dinger da die Zellen dann
0:20:23–0:20:28
sieht, dass die halt quasi parallel alle möglichen Zustandsformen berechnen können.
0:20:29–0:20:34
Das ist halt so das, was ein biologisches System wieder schneller macht oder effektiver.
0:20:35–0:20:39
Das heißt, diese, ich sage jetzt mal, diese Intelligenz ist dann halt viel mehr
0:20:39–0:20:44
in diesen einzelnen Knoten aufgehoben, die dann halt aber autark für sich dann
0:20:44–0:20:46
halt bestimmte Berechnungen ausführen können.
0:20:48–0:20:50
Und dass dadurch das effektiver wird.
0:20:50–0:20:55
Gleichzeitig gibt es dann halt auch diese, diese Möglichkeit.
0:20:56–0:20:59
Was jetzt gemacht wird, ist dann halt eine Parallelisierung.
0:20:59–0:21:07
Da kommt wieder dieser Begriff von ah, das ist so aus dem Darwinismus entlehnt.
0:21:07–0:21:11
Das ist dann halt quasi die Wirklichkeit,
0:21:12–0:21:17
also die Idee, dass das Gehirn quasi,
0:21:17–0:21:23
ein sowieso ein Multiversum ist, weil alle möglichen Realitäten schon irgendwo
0:21:23–0:21:27
als Modelle in diesem Gehirn zeitgleich ablaufen, bis dann halt tatsächlich
0:21:27–0:21:30
das reale Handeln dann einfach ein Modell Wirklichkeit werden lässt.
0:21:30–0:21:34
Aber es ist halt eigentlich das Gehirn funktioniert wie ein Multiversum,
0:21:35–0:21:39
weil halt genau diese ganzen Zustände schon irgendwo vorhanden und berechnet werden.
0:21:39–0:21:42
Und das ist halt so, diese Effektivität von biologischen Systemen.
0:21:43–0:21:45
Also es ist sehr abstrakt, aber so?
Micz Flor
0:21:45–0:21:49
Ja, ja, es geht. Da glaube ich auch darum, dass du natürlich in dem Multiversum
0:21:49–0:21:54
hast du halt immer dieses, dieses Bild, dass alles, was möglich ist,
0:21:54–0:21:56
parallel auch schon irgendwie ist oder so.
0:21:57–0:22:00
Während in biologischen Systemen, glaube ich, ist über die Zeitkomponente,
0:22:00–0:22:04
was du gerade gesagt hast, das auch immer ein bisschen eingeschränkt.
0:22:05–0:22:10
Wir haben ja natürlich jedes Mal Ende des Jahres gibt es die besten Wünsche
0:22:10–0:22:14
für das nächste Jahr und dann irgendwelche Kalendersprüche oder so Bilder, die uns aufzeigen.
0:22:15–0:22:18
Die Reise ging jetzt bis hier. Das heißt aber nicht, dass sie in die Richtung
0:22:18–0:22:21
weitergehen musst Du bist frei, dich immer wieder irgendwohin zu drehen,
0:22:21–0:22:27
was Neues anzufangen, während in Wahrheit biologische Systeme natürlich nicht determiniert sind.
0:22:27–0:22:32
Allerdings der Möglichkeitsraum ist eingeschränkt, Es sind nicht alle möglichen
0:22:32–0:22:38
Universen parallel existent, aber von allen Möglichkeiten, die es gibt,
0:22:38–0:22:40
was ein begrenzter Raum ist,
0:22:41–0:22:45
wird dann eine gewählt und das determiniert dann eben den nächsten Schritt.
Florian Clauß
0:22:47–0:22:52
Genau. Ähm, also die. Die machen auch so ein bisschen.
0:22:52–0:22:56
Also die jetzt Joscha Bach und Michael Lewin, die bashen auch so ein bisschen
0:22:56–0:23:00
gegen die bestehenden Biologieansichten.
0:23:01–0:23:07
Was jetzt in der Neurowissenschaft usw. jetzt so dafür Modelle eben vorherrschen. Also ein.
0:23:07–0:23:10
Ein Beispiel ist halt das ähm.
0:23:12–0:23:16
Dass die Neurowissenschaftler eigentlich keine geeigneten Tools haben,
0:23:16–0:23:22
die versuchen, das Gehirn zu verstehen, indem sie halt draufgucken und dann halt beobachten.
0:23:22–0:23:26
Aber jetzt zum einen Ein,
0:23:27–0:23:30
Experiment hat gezeigt, dass sie zum Beispiel auch Neurowissenschaftler mit
0:23:30–0:23:36
ihren Tools wenn die dann zum Beispiel nur so einen Mikroprozessor Reverse Engineering
0:23:36–0:23:38
sollen, dass die das nicht hinbekommen haben.
0:23:38–0:23:41
Also du guckst dann auch und ich meine, das Gehirn ist noch viel komplexer.
0:23:42–0:23:45
Also wenn du noch nicht mal das schaffst, ein Mikroprozessor,
0:23:45–0:23:50
dann halt so, um zu wissen, wie der funktioniert, weil das halt nicht auflösbar.
Micz Flor
0:23:50–0:23:55
Die Nummer, das heißt die, die, weil die Neurologen nicht Computer bauen können.
Florian Clauß
0:23:55–0:23:58
Wenn nicht Computer, dann reverse engineering, also immer quasi ein.
0:23:59–0:24:02
Also wenn du jetzt ein Mikroprozessor von außen drauf guckst,
0:24:02–0:24:06
den beobachten kannst, du kannst den dann halt nicht mit deren Tools head kann
0:24:06–0:24:09
man den jetzt nicht Reverse Engineering und wissen wie der funktioniert?
Micz Flor
0:24:09–0:24:14
Zu mir. Okay, gut. Das weiß ich. Was ist? Ich müsste mal. Ich.
Florian Clauß
0:24:11–0:24:15
Also es war jetzt so ist es, glaube ich, so ein bisschen, ein bisschen anekdotisch.
Micz Flor
0:24:15–0:24:16
Anekdotisch. Ja, ja, ja.
Florian Clauß
0:24:15–0:24:21
Ich weiß nicht, ob das jetzt nur so ein Bashing ist und dann halt irgendwie so und und und.
Micz Flor
0:24:16–0:24:19
So ein Bashing ist dann halt irgendwie so und.
Florian Clauß
0:24:21–0:24:27
Eine interessante Erkenntnis ist auch das ist also wo wo ich dann ja klar also,
0:24:28–0:24:32
also die Zellen sind ja alle irgendwo gleich aufgebaut.
0:24:32–0:24:37
Sie kriegen ja dann halt je nach Entwicklung des des Individuums kriegen die
0:24:37–0:24:39
dann halt entsprechende Interna.
0:24:39–0:24:43
In so einer Entwicklungsphase kriegen die ja dann die Aufgaben zugewiesen.
0:24:43–0:24:49
Und die Frage ist halt, was unterscheidet jetzt die Neuronen von anderen Zellen?
0:24:50–0:24:58
Und die Neuronen sind ja auch dann nur so in tierischen Lebensformen, so sind die quasi drin.
0:24:59–0:25:04
Das ist ja nicht in Pflanzen, da gibt es ja keine Neuronen in dem Sinne Neuronen.
0:25:04–0:25:08
Das was die unterscheidet, ist halt diese extrem langen Arme,
0:25:08–0:25:12
die Axiome, die dann mit denen, denen dann halt quasi diese, ähm,
0:25:13–0:25:18
diese, diese elektrischen Impulse übertragen werden können und was den das jetzt
0:25:18–0:25:23
bringt, ist ein extremer Zeitvorteil und deswegen kam dann auch nochmal so ein
0:25:23–0:25:25
Schluss daraus ist halt, dass,
0:25:26–0:25:34
quasi mit der Entwicklung der Neuronen dann auch eine andere Taktfrequenz bei
0:25:34–0:25:39
dem jeweiligen Organismus und deswegen konnten halt zum Beispiel die Tiere dann,
0:25:39–0:25:41
sich schneller bewegen als Pflanzen,
0:25:42–0:25:43
und dann wird auch gesagt, dass.
Micz Flor
0:25:43–0:25:45
Bei den meisten Fans sind wirklich schnell.
Florian Clauß
0:25:45–0:25:51
Äh, nein. Aber es ist auch die Frage, wo entsteht dann halt Intelligenz?
0:25:51–0:25:56
Und wenn du dann dieses Modell von Intelligenz das ist, dann ist auch eine Pflanze
0:25:56–0:25:58
intelligent, nur auf einer anderen Zeitachse.
0:25:58–0:26:03
Also das ist dann hier auch so, dass es halt dann so ein bisschen wie bei Herr
0:26:03–0:26:07
der Ringe, die sind die, die wir essen hier abends oder wie heißen diese Bäume,
0:26:08–0:26:11
die dann halt auch mehr extrem lange und jetzt müssen sie auf einmal in so einer
0:26:11–0:26:13
Echtzeit anfangen zu reagieren.
0:26:13–0:26:18
Das können die gar nicht, weil die überhaupt nicht auf diese Zeit Taktung eingestellt sind.
0:26:18–0:26:23
Und das finde ich halt total auch so okay. Also ich meine, das ist ja so, man sucht dann halt.
0:26:23–0:26:26
Er versucht dann immer so, man hat dieses und das ist meine ich halt so dieses,
0:26:27–0:26:32
was wir in der Folge davor besprochen haben, dieses sehr menschenfixierte Idee
0:26:32–0:26:34
von Intelligenz, Bewusstsein usw.
0:26:34–0:26:39
Aber wenn du das halt man dann siehst, halt irgendwie ist überall Intelligenz im System drin.
0:26:40–0:26:44
Nur so funktioniert das, dass halt irgendwelche Orchideen den Hinterleib von
0:26:44–0:26:48
einer weiblichen Wespe mit den Duftstoffen nachbauen kann, um sich dann halt,
0:26:48–0:26:51
irgendwie quasi von der männlichen Wespe bestäuben zu lassen.
0:26:52–0:26:57
Also nur wie funktioniert das? Aber irgendwie ist es ja auch dann,
0:26:57–0:27:02
wenn man halt sagt okay, da ist irgendwie Information drin, die kann prozessiert
0:27:02–0:27:05
werden und die kann zu bestimmten Aktionen führen.
0:27:05–0:27:08
Dann finde ich das wieder so gar nicht so erstaunlich.
Micz Flor
0:27:09–0:27:14
Nein, das ist denn auch so. Intelligenz ist also eher im Rahmen von Kognition.
0:27:14–0:27:18
Wird dann so von basaler Kognition auch unterschieden, was Pflanzen auch irgendwie
0:27:18–0:27:24
schon haben könnten, wo man, wie du sagst, einfach mit der Zeitachse auch viel tun kann.
0:27:24–0:27:28
Wenn du den Efeu in Zeitrafferfilms wie einen Baum hochklettert,
0:27:28–0:27:33
dann hast du das Gefühl und das ist dann auch wieder eine menschliche Interpretation.
0:27:33–0:27:37
Auf einmal hast du das Gefühl, dieser Efeu, der guckt dann hier ein bisschen rechts, links.
Florian Clauß
0:27:36–0:27:39
Nein, das ist keine Dementi. Ich habe nämlich jetzt auch diese von Attenborough,
0:27:39–0:27:41
diese Pflanze hier geguckt.
0:27:41–0:27:45
Und die haben das wirklich mit so einem ganz neuen Technologien von Kamera.
Micz Flor
0:27:41–0:27:41
Okay.
Florian Clauß
0:27:45–0:27:48
Wo die dann halt im Zeitraffer dann gleichzeitig noch einen Schwenk gemacht habe.
0:27:48–0:27:51
Und es ist tatsächlich so in dieser Dynamik, wie die das gefilmt haben,
0:27:52–0:27:56
dann waren das halt einfach Verhaltensweisen, die man normalerweise aus der Tierwelt kennt.
0:27:56–0:28:01
Und das war wirklich so ein zielgerichteter Efeu schwingt sich rum über und,
0:28:01–0:28:04
und dann findet er halt irgendwie so einen Griff und geht da rein.
0:28:04–0:28:08
Also das ist halt gar nicht mehr so, dass es rein interpretiert ist,
0:28:08–0:28:11
sondern die funktionieren tatsächlich so, das ist total mein Blowing.
Micz Flor
0:28:11–0:28:15
Und ja, lustig, dass sie mit EFA war, weil normalerweise wird das immer mit
0:28:15–0:28:17
Erbsen über Erbsen gesprochen.
0:28:17–0:28:20
Ich habe jetzt gedacht, ich sage mal EHF, weil wir gerade sehr sympathisch sind.
Florian Clauß
0:28:20–0:28:23
Nein, es war Kletterpflanze. Nicht, ob das jetzt die Efeu Art war.
Micz Flor
0:28:21–0:28:29
Also okay, aber das genau Und dann ist es aber trotzdem so, dass die wie soll,
0:28:29–0:28:30
ich sagen? Also diese Frage.
0:28:32–0:28:36
Ähm, na es geht halt wieder zurück. Aber diese Frage, was du schon so gesagt hast, dieses,
0:28:37–0:28:42
Antroposophische, eben dieses Menschen Mensch ist der Mittelpunkt und vom Menschen
0:28:42–0:28:45
ist es alles gemessen in Distanz und so, dass man halt guckt,
0:28:45–0:28:50
sobald der Efeu schnell genug ist, dass wir ihn als Mensch sich bewegen sehen, dann,
0:28:50–0:28:53
gönnen wir ihm auf einmal, dass er auch mehr kann.
0:28:54–0:28:57
Dann haben wir ihn auch immer mehr lieb und sind ehrfürchtig.
Florian Clauß
0:28:59–0:29:05
Also mir ist jetzt grade nochmal eingefallen, dieses Modell von neuronaler Darwinismus,
0:29:05–0:29:06
was ich eben angesprochen habe.
0:29:06–0:29:12
Es ist die Theorie von Gary Edelman. Ganz viele Theorien sind auch so in den 40er,
0:29:13–0:29:23
50er, 60er und 80er und jetzt sind wir also auf so einer Materialreife und auch,
0:29:23–0:29:25
dass man halt so Sachen dann halt wirklich machen kann.
0:29:25–0:29:29
Das ist auch ganz interessant, weil die Theorie, Ansätze gibt es schon vorher
0:29:29–0:29:31
und darauf wird er sich berufen.
0:29:32–0:29:35
Aber jetzt ist es in so einer Reife, dass man es halt auch wirklich praktizieren kann.
0:29:36–0:29:40
Also einfach durch die Rechenkapazität und durch die ganzen Versuchsanordnungen.
0:29:41–0:29:47
Ja genau. Also unser Gehirn ist jetzt, funktioniert dann auch.
0:29:47–0:29:51
Es kommt auch immer wieder vor in so in vielen, in so Loops.
0:29:51–0:29:53
Ganz viel wird immer so durch gelobt.
0:29:54–0:29:58
Das ist dann halt wieder hoch kommt und wieder runter. Also das heißt es ist,
0:29:58–0:30:04
diese Parallelisierung und diese Lupen das gleichzeitige setzt weicht dann eben,
0:30:04–0:30:07
ab von so meinetwegen so Bild Stabilisierungsverfahren in so einer.
0:30:08–0:30:12
In so einem neuronalen Netzen, wo dann halt wirklich jedes einzelnen Bild betrachtet wird.
0:30:12–0:30:18
Also im Gehirn werden ja, so teile er dann Teil Probleme dann halt quasi behandelt.
0:30:18–0:30:22
Und dadurch bist du halt viel kleiner unterwegs. Das ist auch so!
0:30:23–0:30:27
Es gibt dann halt auch so ein Untersuchungsobjekt, so ein, so ein Wurm.
0:30:27–0:30:33
Der hat dann halt nur 309 Neuronen und der kann sich aber sinnvoll bewegen.
0:30:33–0:30:39
Aber kein kein Modell aus dem ganzen ML Bereich oder aus dem hat es geschafft
0:30:39–0:30:43
mit so einer Neuronenmenge überhaupt ein Bewegungsmuster zustande zu bekommen.
0:30:43–0:30:47
Das ist halt genau dieser Punkt, wo sich dann halt das wieder in so einer gewissen,
0:30:47–0:30:51
Quantität versus Qualität dann wieder zeigt.
0:30:51–0:30:55
Das heißt, der Ansatz funktioniert da nicht und das ist halt so und generell
0:30:55–0:30:59
kann man sagen, so mit dem Ansatz gibt es bestimmte Probleme,
0:30:59–0:31:03
also mit dem traditionellen Machine Learning Ansatz, aber es kann halt bestimmte,
0:31:03–0:31:06
biologische Patterns nicht abbilden, Da muss man.
Micz Flor
0:31:06–0:31:09
Da wäre ich jetzt also. Es würde mich interessieren, da nochmal genau rein zu
0:31:09–0:31:10
gucken. Natürlich ist ein.
0:31:11–0:31:18
Ähm also der Begriff Neuron auf biologischer Ebene oder der Begriff Neuron auf,
0:31:18–0:31:21
Machine Learning Ebene ist ja auch sehr unterschiedlich.
0:31:21–0:31:23
Also es ist ja so, dass du.
0:31:23–0:31:26
Du hast ja bei Neuronen im biologischen Raum, hast ja,
0:31:29–0:31:35
eine Kombination aus chemischen, also biochemischen und elektrischen Impulsen
0:31:35–0:31:37
oder Informationen, wenn man es so sagen möchte.
0:31:38–0:31:42
Und in den neuronalen Netzen, die sind ja sehr simplifiziert.
0:31:42–0:31:47
Oftmals gibt es dann schon so was wie Interneuron, also dass ein aktives Neuron
0:31:47–0:31:51
auch Neuronen hemmen kann. Muss nicht sein.
0:31:51–0:31:55
Die nebenan liegen, und zwar über die Anzahl der Synapsen. Die ist ja bei echten
0:31:55–0:31:57
Neuronen nicht festgelegt.
0:31:57–0:32:00
Es ist halt die Synapsenbildung. Die passiert ja dann irgendwie im.
Florian Clauß
0:32:00–0:32:03
Ja, das stimmt. Da muss man immer mal gucken, ob das jetzt so übertragbar ist.
0:32:03–0:32:07
War nur ein Beispiel dafür, dass es halt mit einer beschränkten Verknüpfungsanzahl,
0:32:08–0:32:14
also da brauche ich halt eine gewisse Menge wieder, um sinnvolle Patterns abbilden zu können.
Micz Flor
0:32:14–0:32:17
Und das ist auch so. Ich finde es total interessant, dass das,
0:32:17–0:32:20
was du sagst, eben wieder auf diese Menschenzentrierung,
0:32:21–0:32:25
es wird ja immer wieder auch im Dialog dann versucht zu schauen,
0:32:25–0:32:30
was könnte man denn von menschlichem Denken oder tierischen denken?
0:32:30–0:32:33
Was könnte man denn da noch lernen, um das zu verbessern? Und zum Beispiel diese
0:32:33–0:32:35
Schleifen, die im Gehirn passiert.
0:32:35–0:32:40
Das gibt es inzwischen auch in Deep Learning neuronalen Netzen zwischen einzelnen
0:32:40–0:32:43
Layern, die halt bestimmte Dinge machen und man merkt das halt.
0:32:44–0:32:50
Mit Schleife ist es sehr viel Energie aufwendiger, aber in manchen Aufgabenbereichen
0:32:50–0:32:54
dann sehr viel effektiver und man fängt es dann irgendwie an, so zu kombinieren.
0:32:55–0:32:59
Wenn du jetzt zum Beispiel vorstellst, du hast halt irgendwie ein Eichhörnchen,
0:32:59–0:33:03
das hört was, das Eichhörnchen schreckt auf und guckt dann hin und was ist das?
0:33:03–0:33:07
Und das ist ja, dann sind wir so zwei Systeme am Laufen, Das Hören alarmiert,
0:33:07–0:33:13
das Sehen, versucht dann zu erkennen und und ähnlich ist es dann auch in neuronalen
0:33:13–0:33:16
Netzen, dass du dann auf einmal so einen Trigger kriegst und sagst okay,
0:33:16–0:33:18
kuck hier noch mal hin, ist das das?
0:33:18–0:33:25
Ich kann dir quasi nur eine Warnung geben und das energieintensive System wird
0:33:25–0:33:30
erst angeworfen, wenn quasi so ein basales System eine Warnung gibt.
0:33:30–0:33:33
Ja, verstehst du? Ich meine, das heißt, diese diese Art und Weise,
0:33:33–0:33:39
wie Biologie funktioniert, das färbt auch immer wieder in das Machine Learning
0:33:39–0:33:43
natürlich hinein, was natürlich aber dann auch immer noch in sich trägt,
0:33:43–0:33:45
dass es darum geht, so eine Art.
0:33:47–0:33:50
Menschliches Sein zu entwickeln. Also das ist ja irgendwie das,
0:33:51–0:33:52
wo ich da manchmal denke,
0:33:52–0:33:55
vielleicht muss es ja nicht sein wie wir, sondern es muss einfach nur besser
0:33:55–0:34:02
sein als wir Und dadurch kann es dann wirklich spezialisiert auf bestimmte Bereiche perfektionieren.
0:34:03–0:34:08
Weil Taschenrechner kann schneller rechnen als wir, aber ist insgesamt wirklich
0:34:08–0:34:10
ein dummes Objekt, aber er kann bestimmte Sachen, die wir nicht.
Florian Clauß
0:34:11–0:34:14
Also zum Beispiel ist es so, dass es auch sehr aufwendig ist,
0:34:14–0:34:18
in so einem neuronalen Netz dann quasi eine gewisse Arithmetik beizubringen.
0:34:18–0:34:22
Nein, die Rechenoperationen, weil du hast für jedes einzelne Ding dann halt,
0:34:23–0:34:27
durchexerzieren musst wären da kann ich auch wieder nur aus auf Aussagen mich
0:34:27–0:34:29
beziehen die ich da in dem Vortrag gehört habe.
0:34:29–0:34:34
Es ist so, dass du halt in so einem biologischen System dann halt quasi,
0:34:34–0:34:40
wenn du da eine Arithmetik installiert hast, dass das dann halt quasi weitergegeben
0:34:40–0:34:43
wird von Neuronen zu Neuronen, ohne dass die neu trainiert werden müssen.
0:34:44–0:34:48
Also das heißt, da gibt es halt so einen Fluss von Information,
0:34:48–0:34:52
der dann halt nicht wieder so alles aufbereiten und so.
0:34:52–0:34:58
Und die andere Sache ist auch wie. Also das, was man halt.
0:34:59–0:35:04
Generell, wie sich die Welt quasi abbildet in biologischen Systemen,
0:35:04–0:35:08
so dass du auf Veränderungen reagierst. Also es geht darum, dass du halt.
0:35:09–0:35:15
Also dass Veränderung dieses Lernen in so einem neuronalen Netz ist dann halt
0:35:15–0:35:17
wirklich wieder so Frame basiert.
0:35:17–0:35:22
Einzelbilder ja, aber es wird nicht so sehr diese Veränderung über diese Frames,
0:35:22–0:35:25
gemacht, sondern es ist dann halt in so biologischen Systemen.
0:35:25–0:35:29
Beispiel Katze in die Katze kann halt einen Ball nicht erkennen.
0:35:29–0:35:32
Erst wenn er in Bewegung ist, erkennt er den und und das, was dann halt wieder
0:35:32–0:35:36
Joscha Bach dann wieder so auffaltet wir diese Berechenbarkeit.
0:35:36–0:35:42
Das heißt in dem Moment, wenn er jetzt in einem in einem Raum Sachen sich dann
0:35:42–0:35:45
halt nur ganz wenig bewegen.
0:35:45–0:35:50
Es geht immer um diese Degree nicht abweichen und das hat dann der Michael Lewin
0:35:50–0:35:53
hat mir mal bestätigt, dass mit Neuronen dass die halt auch nicht an so einer,
0:35:54–0:35:58
an so einem Grundimpuls die braucht halt halt die müssen nicht so sondern die
0:35:58–0:36:00
reagieren also das ist auch so die neuere Forschung,
0:36:01–0:36:06
die in Neuronen also neuronale Zellen jetzt reagieren dann quasi nur auf so
0:36:06–0:36:11
minimale Spannungsdifferenzen das sind die eigentlichen Trigger für bestimmte
0:36:11–0:36:14
Sachen und nicht mehr diese expliziten Spannungsdifferenzen.
0:36:15–0:36:20
Und da wo dann halt so ein, wo sich dann halt dass quasi die Veränderung in
0:36:20–0:36:27
einem in einem wahrgenommenen in einer wahrgenommenen Umgebung dann fängst du an halt zu.
0:36:27–0:36:32
Sehen das ist ein Objekt und das hat diese Feature und und diese Feature kannst
0:36:32–0:36:37
du quasi aus dem Zusammenhang erschließen und die werden dann halt quasi in
0:36:37–0:36:41
dem Moment, wenn sich das bewegt, ohne dass jetzt jemand quasi der trainiert,
0:36:41–0:36:46
Netzwerk wo dann sagst du das ist ein Stuhl, sondern das ist jetzt es wird auf
0:36:46–0:36:48
einmal zum Stuhl, weil es in der Bewegung,
0:36:49–0:36:52
die genau diese Features eines Stuhls dann zeigt,
0:36:53–0:36:57
und das ist halt auch so so funktionieren lernende biologische Systeme und das
0:36:57–0:37:01
ist mal auch so ein fundamentaler Unterschied, dass wir also dass mehr auf diese
0:37:01–0:37:05
Veränderung und alles, was sich nicht bewegt und nicht verändert,
0:37:05–0:37:06
ist erstmal uninteressant.
Micz Flor
0:37:06–0:37:13
Ja, das ist ja sogar so, das kennt man ja, diese ganzen Grundschulen,
0:37:13–0:37:18
da kennt man ja diese ganzen Grundschulsachen, wo man halt lange auf dem Bild
0:37:18–0:37:20
draufguckt und dann verschwindet der Punkt.
0:37:20–0:37:25
Das heißt, unsere auch auf einer biologischen Ebene, gar nicht auf einer kognitiven,
0:37:25–0:37:27
sondern eine wirklich in den Zellen im Auge. Es ist ja so angelegt,
0:37:27–0:37:32
wenn wir lange auf einen Punkt gucken, dann wird alles andere gleich.
0:37:33–0:37:36
Das heißt, wir sehen dann wir. Im Prinzip tendieren wir dazu,
0:37:36–0:37:37
daraus ein weißes Feld zu machen.
0:37:37–0:37:43
Das sind nur die Unterschiede, die wir wirklich wahrnehmen. Und das haben wir
0:37:43–0:37:48
ja dann auch eben gesehen bei MP3 oder bei MPEGVideokodierung.
0:37:48–0:37:53
Das halt große Flächen werden halt irgendwie nicht so detailliert ausgerechnet,
0:37:53–0:37:57
sondern die werden halt versucht im Sinne der Datenübertragung flach zu halten,
0:37:57–0:38:00
während so was wie ein Gesicht oder wo viele Kontraste sind.
0:38:01–0:38:05
Da gehen wir halt rein und das ist wiederum was, was jetzt nicht neu ist,
0:38:05–0:38:10
sondern es war früher schon immer so, dass bei berühmten Malern,
0:38:10–0:38:14
hauptsächlich Malern, Maler innen, später aber dass man da.
0:38:15–0:38:20
Auch das so gemacht hat, dass das Bild wurde gemalt von irgendeinem Gesellen
0:38:20–0:38:24
oder so, und dann wurden halt die Hände und das Gesicht. Da hat der Meister
0:38:24–0:38:25
dann auch Hand angelegt.
0:38:25–0:38:30
Und das ist ja nicht viel anders als das, was man heute mit Algorithmen macht,
0:38:30–0:38:34
um halt die Daten besser durch das Internet zu schieben, dass man halt auf das,
0:38:34–0:38:37
was früher der Meister der Malschule,
0:38:38–0:38:40
betont hat, das ist auch das, was heute die Algorithmen tun.
Florian Clauß
0:38:43–0:38:50
Die Frage ist. Diese einzelnen Zellen, die oder auch im Verband,
0:38:51–0:38:54
die reagieren auf Umwelt, auf Umwelt ein.
0:38:54–0:38:57
Und die Frage ist wie? Also wie?
0:38:58–0:39:03
Woher kommt quasi die Information, dass das, wie sie reagiert haben, auch sinnvoll war?
0:39:03–0:39:07
Also da geht es so ein bisschen dieses übergeordnete Ziel wurde erreicht.
0:39:08–0:39:12
Ist es dann als quasi fulfilling ja oder nicht?
0:39:12–0:39:15
Also das heißt es muss hier ein System irgendwo implementiert sein,
0:39:15–0:39:20
das einen gewissen Feedbackschleife erlaubt und diese und und dann kommt man wieder zu diesem.
Micz Flor
0:39:18–0:39:18
Hm.
Florian Clauß
0:39:21–0:39:28
Quasi belohnungsgetriebenen System, das heißt, es gibt tatsächlich im biologischen,
0:39:28–0:39:33
Organismen dann halt so, so eine Sprache der Belohnung und die Belohnung sieht
0:39:33–0:39:36
dann nicht so aus, dass einer von oben sagt Ey, das hast du super gemacht,
0:39:36–0:39:37
du kriegst jetzt irgendwie so,
0:39:38–0:39:43
weil ich ein paar Glukose Glukose Moleküle mehr,
0:39:44–0:39:50
sondern es wird auch dann hier wieder in so einer in so ne in so ein quasi so,
0:39:50–0:39:54
ein Verband reagiert das heißt die benachbarten Zellen,
0:39:55–0:40:01
geben dann Feedback, das heißt, da wird wieder auch so quasi in so einem von
0:40:01–0:40:04
unten dann halt belohnt, dass die dann sagen ja.
0:40:04–0:40:09
Hast du gut gemacht, also das ist halt so dieses Ding, das ist halt auch wieder
0:40:09–0:40:15
so embedded, ist so ein bisschen wie bei dem Ameisenstaat, wo dann halt eine Ameise dann halt quasi,
0:40:16–0:40:21
schaffen kann, ein komplettes Volk umzuerziehen, indem sie andere überzeugt.
0:40:21–0:40:25
So, das ist halt so, dieses, das ist halt auch so diese kollektive Intelligenz,
0:40:26–0:40:29
wo fängt, wo fängt denn die einzelne,
0:40:30–0:40:38
Einzelne, die einzelne Entität in einem System dann quasi das ganze System quasi mit beeinflussen kann?
0:40:38–0:40:42
Das ist halt so ganz spannend einfach an dieser Stelle.
Micz Flor
0:40:42–0:40:47
Ja, ja, ja, das ist ja auch dieses es ist, glaube ich, auch ein großes Thema
0:40:47–0:40:50
in der Biologie. Was nicht ganz geklärt ist, ist halt, wenn zum Beispiel ein
0:40:50–0:40:55
großer Organismus stirbt, dass kleine Zellen dann auch sterben.
0:40:56–0:41:01
Also das muss ja nicht unbedingt sein, aber dass es da nicht ganz klar ist,
0:41:01–0:41:05
wie der Zusammenhang zwischen Einzellern in unserem.
0:41:05–0:41:08
Also ich meine, dass keine Bakterien im Magen Darm Trakt, sondern wirklich Teil,
0:41:08–0:41:13
unserer Körperzellen, dass die dann auch ein Signal bekommen.
0:41:13–0:41:15
Oder warum müssen die dann alle sterben?
Florian Clauß
0:41:15–0:41:21
Ja, ja, das ist. Genau. Das ist, wie Informationsübertragung läuft.
0:41:22–0:41:27
Und das dann in so einer ganz zellulären Ebene.
0:41:27–0:41:34
Ich glaube, das ist so soweit zu dem Teil, den Joscha Bach in diesem Vortrag dann ausgebreitet hat.
0:41:34–0:41:42
Ich würde jetzt gerne ein zweites im zweiten Teil dann über eigentlich ja na.
Micz Flor
0:41:39–0:41:41
Das ist der eigentliche Teil, oder im.
Florian Clauß
0:41:42–0:41:48
Ja, mal gucken was eigentlich zweiten Teil über Michael Lewines Präsentation.
0:41:49–0:41:56
Also was Michael Lewin da auch eben so als als so ein so ein Paradigmenwechsel
0:41:56–0:41:58
dann auch in seinem Vortrag vorangestellt hat.
0:41:58–0:42:01
Das ist einfach die Frage wie. Wie man jetzt auch so eine,
0:42:04–0:42:07
typisch menschliche Sichtweise dann so ein bisschen verliert und dann guckt,
0:42:08–0:42:13
eben, was ich schon gesagt habe, wo Intelligenz überall quasi verankert ist
0:42:13–0:42:15
und wie andere Systeme auch funktionieren.
0:42:16–0:42:20
Ein Beispiel. Das fand ich also ganz interessant. Wir sind halt total auf so,
0:42:20–0:42:27
sehen und Erleben im dreidimensionalen Raum da ausgelegt,
0:42:28–0:42:32
aber können entsprechend halt unglaublich visuell gut auflösen.
0:42:33–0:42:35
Aber wenn wir jetzt zum Beispiel,
0:42:37–0:42:42
das Vermögen hätten, die chemische Zusammensetzung unseres Blutes wahrzunehmen,
0:42:43–0:42:47
also wenn wir das als Wahrnehmungsorgan hätten, na denn, dann wären wir halt eine Leber,
0:42:49–0:42:55
mit ner Leber oder ein Märchen.
Micz Flor
0:42:50–0:42:51
Ein Lebewesen,
0:42:54–0:42:54
oder?
Florian Clauß
0:42:56–0:43:01
Also das wäre also. Also das heißt, es gibt, es gibt diese zellulären,
0:43:03–0:43:09
Organismen, Ja, sie sind, aber sie sind quasi da, aber es ist. Sie sind vorhanden.
Micz Flor
0:43:03–0:43:05
Es gibt die Rezeptoren, sie sind uns aber nicht.
Florian Clauß
0:43:10–0:43:14
Ja, aber das finde ich auch so einen ganz guten Gedanken Kniff.
0:43:14–0:43:21
Wenn man jetzt wirklich so, dass man sich überlegt, das ist schon echt interessant
0:43:21–0:43:26
und dann erschließen sich dann halt auch quasi neue Felder und ich glaube, das ist halt so das, was,
0:43:27–0:43:30
das Team von Michael Lewin und die wollen,
0:43:31–0:43:37
unterschiedliche so ein Framework entwickeln, um halt auch so Intelligenzformen
0:43:37–0:43:44
quasi in der Natur dann halt einzuteilen oder oder zu nutzbar zu machen,
0:43:45–0:43:51
die da jetzt auch nicht so quasi so sinnfällig, denn die nicht gleich ins Auge
0:43:51–0:43:58
springen, sondern die dann erst mal dann überhaupt erschlossen werden müssen als Systeme dafür.
0:44:00–0:44:05
Und der ganz, der kommt stark aus diesem Morphologie Bereich.
0:44:06–0:44:11
Also es ist ganz viel in seinen Experimenten auch mit morphologischen Prozessen,
0:44:11–0:44:18
also Morphologie wo quasi die Natur vom Bauplan wie sich dann Zellen in bestimmte,
0:44:19–0:44:21
Strukturen ordnen das ist.
0:44:21–0:44:27
Er bringt dann ein Beispiel was dann halt auch so was dann auch sehr prägend
0:44:27–0:44:33
ist für seine Arbeit, nämlich die Metamorphose von einem Schmetterling,
0:44:33–0:44:38
also von einer Raupe, die halt eigentlich nur so ein blattfressender Roboter
0:44:38–0:44:41
ist, der mehr oder weniger in so einem 2D Raum.
0:44:41–0:44:47
Also das heißt ist ja gebunden an an ein Blatt und Schwerkraft.
0:44:48–0:44:54
Und in der Metamorphose entwickelt sich dann ein Schmetterling,
0:44:56–0:44:58
der dann Blüten, Blüten, Nektar,
0:44:58–0:45:02
schlürft, der dann auch eine ganz andere Future Seed hat. Der, der dann.
Micz Flor
0:45:02–0:45:06
Raupe ist. Die Blätter. Der Schmetterling schlürft direkt.
0:45:07–0:45:10
Okay, das ist auch wieder eine menschliche Deutung. Aber ich weiß, was du meinst.
0:45:10–0:45:12
Also diese Transformation von der Raupe in den Schmetterling.
0:45:12–0:45:16
Zwei Tiere, die man wahrscheinlich lange Zeit gar nicht als zusammenhängend
0:45:16–0:45:18
wahrgenommen hat. Es gibt Raupen, es gibt Schmetterlinge.
Florian Clauß
0:45:19–0:45:22
Also auch, dass dann Flügel entwickelt werden und werde.
0:45:22–0:45:26
Aber das Eigentliche, was dann noch mal so in der Beobachtung interessant ist,
0:45:26–0:45:30
ist das halt während der Metamorphose sehe ich das komplette Tier auflöst,
0:45:30–0:45:33
das heißt da wo man dann Raupen gehören war, da ist halt nix,
0:45:33–0:45:35
sondern das setzt sich dann neu zusammen.
0:45:36–0:45:41
Also es gibt alle, ganze, die ganze Struktur des dieses Prozess,
0:45:41–0:45:48
der wirklich das Imago ist, also des Tieres, das setzt sich halt völlig neu zusammen.
0:45:48–0:45:50
Aber es gibt ein Gedächtnis Zellen.
0:45:50–0:45:55
Also das heißt du kannst Raupen trainieren auf bestimmte Sachen und die Erinnerung
0:45:55–0:45:57
findet sich dann wieder im Schmetterling.
0:45:57–0:46:00
Und dann ist die Frage, wo ist Erinnerung gespeichert.
0:46:00–0:46:04
Wie kann so eine Gedächtniszelle dann, wie kann ein Gedächtnis funktionieren,
0:46:04–0:46:09
Und man denkt dann halt und das ist dann auch wieder so ein so ein altes Paradigma.
0:46:09–0:46:12
Man denkt halt irgendwie, Gedächtnis ist im Kopf aufgehoben,
0:46:12–0:46:18
im Gehirn, das ist, das speichert das Gedächtnis, aber es geht viel tiefer, es gibt halt,
0:46:19–0:46:23
es geht halt irgendwie auf, auf eben, auf so einer zellulären Ebene dann auch,
0:46:24–0:46:28
Gedächtnisfunktionen und dann ein Beispiel, über das wir uns auch schon unterhalten
0:46:28–0:46:30
haben, ist halt auch diese.
0:46:32–0:46:35
Also so ein Gehirn muss nicht.
0:46:35–0:46:39
Also ein Gedächtnis muss nicht im Gehirn passieren, sondern es kann auch in
0:46:39–0:46:40
einer Zelle sein. Es kann.
0:46:41–0:46:44
Jetzt kommt dieses Schleimpilz Beispiel.
0:46:44–0:46:51
Das ist auch ein Gedächtnis. Also im Prinzip der Schleimpilz ist halt eine Zelle,
0:46:52–0:46:57
agiert aber wie ein vielzelliges, vielzähliger Organismus.
0:46:57–0:47:03
Da gibt es eine Versuchsanordnung, wo dann der Schleimpilz in einer Petrischale
0:47:03–0:47:08
in der Mitte ausgesetzt wird und erst mal so eine kleine Zelle ist und dann ist er am Rand.
0:47:08–0:47:13
Sind dann halt mehrere Futterstellen und dann wird halt beobachtet, was passiert in.
0:47:14–0:47:17
Was passiert in den ersten Stunden? Dann siehst du halt, dass dieser Schleimpilz
0:47:17–0:47:20
sich hier in alle Richtungen quasi ausbreitet. Gleichmäßig.
0:47:20–0:47:26
Und dann kriegt er halt mit. Und zwar kriegt er das halt über Vibrationen,
0:47:26–0:47:31
die er dann halt quasi über den Boden auslöst, kriegt er dann halt mit, wo dann,
0:47:32–0:47:37
Futterquellen räsonieren und dann wächst er gezielt zu dieser Futterquelle hin.
0:47:38–0:47:44
Also ein höchst intelligentes Verhalten macht halt eine Zelle.
0:47:44–0:47:47
Also das heißt, auch hier ist diese.
0:47:50–0:47:53
Diese Fähigkeit einer Zelle.
0:47:54–0:47:58
Ja, ist halt so, ist halt immens.
0:47:58–0:48:02
Und wenn man sich überlegt, dass der Mensch aus so und so viel Zellen zusammengebaut
0:48:02–0:48:05
ist, die alle, aber auch so eine, so eine Fähigkeit irgendwo mit sich in sich
0:48:05–0:48:11
tragen, Er ist dann halt die, die diese diese Menge dann halt auch extremst,
0:48:12–0:48:18
effektiv und und dann heißt das nur nochmal so dagegengehalten.
0:48:19–0:48:24
Also so ein multitiluläres Wesen und ich meine, eine Zelle kann dann halt aus.
0:48:24–0:48:28
Dann ist es halt irgendwie so und so ein Neuron hat natürlich das Feature,
0:48:28–0:48:32
dass es halt nur ein Axiom hat als Übertragungsweg.
0:48:32–0:48:37
Aber der Schleimpilz hat ja auch quasi so eine Art von Gehirnaktivität,
0:48:37–0:48:45
in dem man dann halt anfängt, da halt auch solche Gänge zu legen und so Entscheidungen zu treffen usw..
Micz Flor
0:48:45–0:48:48
Ja, zumindest von außen betrachtet ist es so, dass beim Schleimpilz,
0:48:48–0:48:51
der kann ja sogar in einem Labyrinth sich ausbreiten, den kürzesten Weg finden,
0:48:52–0:48:57
zwischen zwei Futterstellen im Labyrinth. Und das ist dann von außen betrachtet
0:48:57–0:48:58
eben wirklich auch so ein Dilemma.
0:48:58–0:49:03
Ist das jetzt schon eine intelligente Lösung? Weil das ist nicht trivial und gleichzeitig.
Florian Clauß
0:49:02–0:49:06
Jenny. Es ist intelligent. Es ist auf jeden Fall. Das ist genau dieses Ding.
0:49:06–0:49:11
Es ist eine intelligente. Aber die Frage ist für mich jetzt auch noch nicht so ganz klar.
0:49:11–0:49:15
Wo fängt das Bewusstsein an? Das ist die Frage nach Bewusstsein.
0:49:15–0:49:19
Das wäre nochmal so die nächste Sache, ob sich das so differenziert?
0:49:20–0:49:22
Was ist der Unterschied zwischen Intelligenz und Bewusstsein?
0:49:23–0:49:28
Und ist Intelligenz gleich Bewusstsein oder kann sich das halt auch irgendwie,
0:49:28–0:49:30
unterschiedlich ausprägen?
0:49:33–0:49:39
Und die andere Sache, die ist diese Sache von.
0:49:39–0:49:43
Auch so ein Paradigma. Man sieht sich als individuelles Wesen.
0:49:44–0:49:54
Und wenn man aber schaut, wie der, wie jetzt auch der Mensch entsteht oder alle meinetwegen,
0:49:55–0:50:00
quasi Tiere oder Organismen, die Geld aus so einem Plastoderm also das ist im
0:50:00–0:50:06
Prinzip diese Schicht von von Zellen, die sich kurz nach der Befruchtung dann quasi so.
0:50:07–0:50:11
Strukturieren und dann sind da auch diese Versuche kennt man ja auch.
0:50:11–0:50:17
Das Blastoderm wird dann halt quasi so geschädigt geschnitten an eine gewisse,
0:50:17–0:50:24
und dann ist diese Teile, die dann entstehen, die sind, aber die werden zu vollwertigen Organismen.
0:50:24–0:50:29
Das heißt, dann gibt es halt so einen Bereich, der dann halt so sich dann halt
0:50:29–0:50:31
von den anderen löst aber gleichzeitig.
0:50:32–0:50:38
Also dann wird halt aus dem einen angelegten werden dann meinetwegen drei Teile,
0:50:39–0:50:41
und daraus entwickeln sich drei Individuen.
0:50:42–0:50:46
Woher kommt das also? Also das eine war ja vorher, es wäre eins geworden.
0:50:46–0:50:50
Wenn ich dann. Also na das ist auch so, und woher wissen die Zellen,
0:50:50–0:50:55
dass die jetzt quasi an der Stelle verletzt wurden und sich jetzt dann nochmal,
0:50:55–0:50:59
diesen Prozess quasi beschleunigen oder anders nochmal gestalten,
0:50:59–0:51:01
um dann wieder so ein Individuum zu bekommen.
0:51:02–0:51:05
Das sind auch wieder so morphologische Sachen, die dahinter stehen.
0:51:05–0:51:11
Das ist ja auch so diese Vorstellung von Individualität, von Ontogenese usw.
0:51:11–0:51:16
Das ist ja auch so überholt sich dann in dem Moment und darüber hat auch übrigens
0:51:16–0:51:23
dann Alan Turing auch ein Paper geschrieben 1953 über die Morphogenese,
0:51:24–0:51:29
nämlich dass die Problemlösung bei lebenden Maschinen, dass die die Intelligenz
0:51:29–0:51:31
haben, sich neu zu programmieren, so eine Plastizität halt.
0:51:32–0:51:35
Das fand ich auch nochmal interessant. Ist dann halt wieder so diese ganzen,
0:51:35–0:51:40
Computer Scientists dann halt da in diese diese Ecke dann auch gehen.
Micz Flor
0:51:42–0:51:44
Das wusste ich auch nicht, dass Turing da schon,
0:51:46–0:51:48
sich buchstäblich einen Kopf gemacht hat.
Florian Clauß
0:51:49–0:51:55
Und wenn man auf dieser auf dieser ganz kleinen, niedrigen Ebene bleibt.
0:51:58–0:52:03
Also wenn du guckst, es gibt halt irgendwie, was ist Leben, dann ist halt so
0:52:03–0:52:07
eine gewisse chemische Reaktion, die dann so stattfindet, ne,
0:52:07–0:52:11
aber wo ist dann der Sprung zur Zelle und wo ist denn dann der Sprung?
0:52:11–0:52:13
Dann halt quasi zum Organismus?
0:52:13–0:52:18
Naja, das ist ja so fließend, es ist ja nicht so auf einmal ist.
Micz Flor
0:52:15–0:52:16
Es ist ja nicht so!
Florian Clauß
0:52:18–0:52:21
Ich weiß, also vorher war es das und jetzt ist es Leben.
0:52:21–0:52:26
Sondern es ist halt ein ganz fließender Übergang und das ist glaube ich auch
0:52:26–0:52:30
so ein Ding, was, womit man sich anfreunden muss, das ist halt nicht irgendwie
0:52:30–0:52:34
das Eine ist, das Eine ist noch nicht und das andere wird aber,
0:52:35–0:52:37
dass man da nicht so dualistisch denkt.
Micz Flor
0:52:38–0:52:41
Ich finde das auch so ein Bereich, wo es ganz schön windig. Ich finde es ist
0:52:41–0:52:46
auch so ein Bereich, wo ich weiß gar nicht wie die wie das heißen würde in der Forschung.
0:52:46–0:52:51
Aber das ist ja irgendwie das Paradoxe ste, was wir eigentlich im Universum
0:52:51–0:52:54
gerade so erleben, ist ja, wir haben einerseits diese Entropie,
0:52:54–0:52:59
alles tendiert zur Unordnung und gleichzeitig ist es aber so,
0:52:59–0:53:01
dass wir, wie du schon gesagt hast,
0:53:01–0:53:08
in jedem einzelnen Wesen entsteht Aus einer Einzeller entsteht ein Mehrzeller, entsteht ein Mensch.
0:53:09–0:53:14
Das heißt, da wird ja nicht Entropie sichtbar, sondern das Gegenteil.
0:53:14–0:53:17
Da wird ja Ordnung sichtbar, höchste Ordnung. Also das ist das ganz Kleine.
0:53:17–0:53:24
Schafft es irgendwie irgendwas zwischen 70 und 100 Kilo Lebendgewicht herzustellen.
0:53:24–0:53:29
Und das ist ja irgendwie absurd und entspricht dem Gegenteil dessen,
0:53:29–0:53:33
was wir immer irgendwie eigentlich annehmen mussten, nämlich dass alles zur
0:53:33–0:53:36
Unordnung hin tendiert. Weil Ordnung braucht immer mehr Energie als Unordnung.
0:53:36–0:53:41
Das heißt, in unserem ganzen Wachstumsprozess muss es irgendwie Mechanismen
0:53:41–0:53:47
geben, wo das Kleine das Größere beeinflusst und nicht das Große, das Kleine.
0:53:47–0:53:52
Die große Billardkugel ist immer mächtiger als die Kleine, aber in jeder einzelnen,
0:53:52–0:53:55
in jedem Menschen, in jedem Tier, in jeder Pflanze, in jedem Moment.
0:53:55–0:54:00
Wenn halt Leben da ist, wird gezeigt, dass es möglich ist, dass das kleine.
0:54:00–0:54:07
Entgegen der Daumenregel von Chaos siegt Ordnung herstellen kann.
0:54:07–0:54:11
Und das finde ich irgendwie irre. Und das passiert ja auf einer molekularen
0:54:11–0:54:14
Ebene, auf einer, auf einer physikalischen, chemischen Ebene.
Florian Clauß
0:54:15–0:54:17
Genau das ist ja dann wieder also die Frage, ist halt irgendwie so..
0:54:18–0:54:24
Ich meine, so eine Turingzellorganismus ist im Prinzip eine Wirkung gegen die Entropie Entropie.
0:54:25–0:54:28
Weil du hast ein Programm, was dann halt sich wieder ordnet.
0:54:28–0:54:31
Das ist der Algorithmus, macht dann Ordnung.
Micz Flor
0:54:32–0:54:36
Und es ist ja auch schon so, dass die versucht man ja irgendwie herzustellen.
0:54:36–0:54:41
Da gibt es ja die Theorien, dass das Leben hier quasi als als Samen oder sieht
0:54:41–0:54:44
irgendwie aus dem Weltraum kam oder ist es hier entstanden.
0:54:44–0:54:48
Dann hat man die Ursuppe von früher hergestellt und Blitze rein schießen lassen
0:54:48–0:54:52
und gemerkt, dass ich da wirklich relativ schnell auch komplexere Moleküle bilden,
0:54:52–0:54:54
die als Vorstufen für Aminosäureketten dienen könnten.
0:54:54–0:55:00
Und Aminosäure Ketten sind dann wiederum Vorstufe von von biochemischen und
0:55:00–0:55:01
dann biologischen Leben.
0:55:01–0:55:05
Und trotzdem sind natürlich diese ganzen Sprünge nicht wirklich geklärt.
0:55:05–0:55:11
Aber wenn man sich das bildlich vorstellt, dann hat man natürlich diese Idee von dieser Ursuppe.
0:55:11–0:55:16
Da gab es noch gar keine Atmosphäre, überall Lava und Zeug und Salze und alles
0:55:16–0:55:20
mögliche und dann hauen die Blitze rein und da hat man ja so einen.
0:55:21–0:55:28
So, so titanenmäßig. Also da sind. Da sind, ähm, energetische Kräfte am Wirken
0:55:28–0:55:33
auf die Materie, dass man sich gut vorstellen kann, dass die ein höheres Komplexitäts.
0:55:33–0:55:36
Also die springen dann eben auf eine höhere Ebene und.
Florian Clauß
0:55:35–0:55:39
Ja eben, genau. Und dieser Sprung ist vielleicht gar nicht so ein Sprung.
Micz Flor
0:55:40–0:55:44
Und dann später wird es aber eben so in diesem Leben, wo dann?
0:55:44–0:55:48
Und dann kommt eben vielleicht wirklich die Quantenmechanik damit rein,
0:55:48–0:55:52
ohne dass wir einen Designer haben. Aber diese Idee, dass auf einmal es möglich
0:55:52–0:55:58
ist, solche Komplexitätssprünge herzustellen, ohne wirklich.
0:55:59–0:56:03
Also wenn du dir vorstellst, so ein Kind im Mutterbauch entsteht,
0:56:04–0:56:08
dass es da so komplett wächst Und natürlich, die Frau ist mehr,
0:56:08–0:56:12
die Frau ist vielleicht mehr erschöpft, muss ab und zu kotzen und wie auch immer.
0:56:12–0:56:15
Das heißt, da passieren natürlich Dinge um dieses Generation,
0:56:15–0:56:20
aber es ist unvorstellbar, wenn wir in so einer reinen,
0:56:22–0:56:25
Werkbank Idee rechnen. Wie könnte man das so herstellen?
0:56:26–0:56:29
Und irgendwie ist es dann trotzdem halt möglich. Und das finde ich halt so spannend.
0:56:29–0:56:33
Diese Ursuppe mit dem Blitzen ist so archaisch und voller Energie und dann entsteht
0:56:33–0:56:41
fast nebenbei und wie selbstverständlich so ein komplexes Gebilde wie ein Baby über neun Monate.
Florian Clauß
0:56:41–0:56:47
Was du beschreibst und das ist auch mir nochmal bei diesem Vortrag so bewusst geworden.
0:56:47–0:56:52
Diese Rolle von Morphologie, also wie, was,
0:56:52–0:57:00
wie eine Gestaltgestaltsbildung in der Biologie funktioniert und das ist,
0:57:00–0:57:02
das ist so, dass also wie gesagt, das ist so das,
0:57:02–0:57:07
Thema von von Michael Lewin und das Lieblingstier was ich dann halt auch in
0:57:07–0:57:09
den ganzen Versuchen dann so als ein,
0:57:10–0:57:15
Tier dann halt gezeigt hat was sehr resistent ist und womit die alles mögliche
0:57:15–0:57:16
angestellt haben, ist dieses,
0:57:17–0:57:19
Level in eine.
0:57:22–0:57:22
Platz.
Micz Flor
0:57:22–0:57:23
Aber für.
Florian Clauß
0:57:24–0:57:32
Für Merian, Planetarien, Planeten, Planetarien, Planetarien, Kanarienmäuse.
0:57:32–0:57:40
Planetarien sind so ein Strudelwurm, eine Wurmart und der zeichnet sich dadurch aus.
0:57:40–0:57:44
Das haben die dann jetzt in einem anderen Interview nochmal so ein bisschen,
0:57:44–0:57:51
detailliert erläutert, dass der im Prinzip total vermurkstes Genom hat.
0:57:51–0:57:57
Also das der hat halt irgendwie so, das hat sich halt, das ist auch so eine,
0:57:57–0:58:01
klassische Vorstellung von der Biologie, das heißt, du hast ein sauberes Genom,
0:58:01–0:58:04
das wird dann halt durch Selektionen weitergegeben.
0:58:04–0:58:07
Wenn du ein gutes Genom hast, dann über geht das, dann, ja, dann geht das halt
0:58:07–0:58:12
durch die Generation und das wird in der Selektion bevorzugt behandelt. Aber der hat halt so ein.
Micz Flor
0:58:12–0:58:15
Ganz kurz ein Marker setzen, weil das ist ja genau diese Turingmaschine Sache,
0:58:15–0:58:16
die du vorhin gesagt hast.
0:58:16–0:58:22
Man hat ja immer gedacht, das Genom ist das Programm, das Genom ist das Programm.
0:58:22–0:58:27
Und wenn man das Genom entschlüsselt hat, dann hat man den Code verstanden und dann entsteht Leben.
0:58:30–0:58:34
Okay. Drüben lebt auch was vor sich hin und hupt.
0:58:36–0:58:41
Und diese Idee, dass alles im Genom als Programm gespeichert ist,
0:58:41–0:58:45
das zeigt sich in manchen Fällen. Dass das nicht so ist.
Florian Clauß
0:58:45–0:58:46
Genau. Genau.
Micz Flor
0:58:47–0:58:49
Und dass das Genom manchmal einfach eine Müllhalde ist.
Florian Clauß
0:58:49–0:58:53
Genau. Und das ist halt so völlig Messie Genom.
0:58:53–0:58:57
Da sind halt irgendwie mal da so ein paar Paar Chromosomen und dann irgendwie,
0:58:57–0:59:00
ist das auch völlig verstreut und,
0:59:02–0:59:07
die hat aber das ist das Lebewesen, was quasi unsterblich ist,
0:59:07–0:59:11
was unauffällig anfällig gegen Krebs ist, was dann halt,
0:59:11–0:59:16
eine unglaubliche Agilität hat und eine extreme Anpassungsfähigkeit,
0:59:16–0:59:19
was kein anderes Lebewesen hat.
0:59:19–0:59:24
Und da kann man die Theorie, wie kann das dann wie kennen? Wie kann sich das entwickeln?
0:59:24–0:59:31
Ist nämlich, dass sie quasi wie so oft so einer defekten Hardware sich dann
0:59:31–0:59:35
halt weil sie so auch wieder so ein Bild von Joscha Bach auf dieser Hardware
0:59:35–0:59:37
wo dann halt diese neu sie,
0:59:37–0:59:42
hat es die ganze Zeit durchläuft und halt Fehler beim Kopieren macht egal.
0:59:42–0:59:47
Aber dann sitzt halt so eine prozessuale Schicht obendrauf, die halt immer diese
0:59:47–0:59:50
Fehlerkorrekturen macht und damit viel effektiver ist.
0:59:50–0:59:53
Und dann gibt es halt einen neuen Begriff, den die einführen.
0:59:53–0:59:59
Nämlich den der Kompetenz, also Kompetenz, Kompetenz, was dann halt auch ein
0:59:59–1:00:01
Selektionsmerkmal dann werden kann.
1:00:01–1:00:05
Das heißt, das Tier, was am kompetentesten ist ist, kann auch entsprechend dann
1:00:05–1:00:11
halt ausgetauscht oder es kann halt in einer Umgebung besser überleben.
Micz Flor
1:00:12–1:00:17
Aber jetzt ganz kurz noch mal eine Frage zu dieser Analogie mit der Maschine.
1:00:17–1:00:26
Das heißt, dieser Wurm hat einfach nur schrottige Hardware und hat aber alles
1:00:26–1:00:28
im Rahmen. Oder wie ist das also?
Florian Clauß
1:00:28–1:00:32
Ja, genau. Äh, meinetwegen. Äh, dann, wenn du das jetzt so übertragen.
1:00:32–1:00:40
Aber man hat im Prinzip eine extremst fähige und die ist dann halt in Zellen,
1:00:40–1:00:44
quasi in die Intelligenz der Zellen gebaute Fehlerkorrektur,
1:00:45–1:00:48
und die dann halt diese Anpassung und die haben dann halt zum Beispiel solche
1:00:48–1:00:50
Anpassungsmechanismen wie,
1:00:52–1:00:59
an denen Wurm in so einer Bariumflüssigkeit ausgesetzt Barium ist dann halt,
1:01:00–1:01:02
kommt in der Natur so nicht vor.
1:01:02–1:01:06
Das heißt der Wurm war niemals damit konfrontiert irgendwie in einer natürlichen Umgebung.
1:01:06–1:01:14
Und was dann passiert ist, ist, dass sein Kopf explodiert ist in dieser Flüssigkeit.
Micz Flor
1:01:12–1:01:17
Okay. Hey, hey, hey, hey, hey, hey, hey.
Florian Clauß
1:01:14–1:01:17
Aber dann wechseln wir ab.
1:01:18–1:01:20
Naja, wir kommen nochmal zurück, aber das Ding ist.
Micz Flor
1:01:18–1:01:21
Naja, wir kommen nochmal zurück, aber das heißt, dass es erste.
1:01:21–1:01:25
Das erste Mal, dass ein Wurm gestorben ist von dieser Art, oder?
Florian Clauß
1:01:25–1:01:29
Nein, er ist nicht gestorben. Der Kopf ist explodiert, denn er hat die Fähigkeit.
Micz Flor
1:01:25–1:01:27
Nein, er ist nicht gestorben. Okay. Okay.
Florian Clauß
1:01:29–1:01:31
Natürlich, seinen Kopf dann halt zu regenerieren.
1:01:32–1:01:35
Das heißt, nach einer gewissen Zeit, nachdem man halt irgendwie konnte er sich
1:01:35–1:01:40
an diese völlig lebensfeindliche Umgebung konnte er sich dann halt anpassen
1:01:40–1:01:42
und hat dann an der Kopf ist nachgewachsen.
1:01:42–1:01:45
Also der ist nicht nur irgendwie so ruhig, agil, der ist er auch.
1:01:45–1:01:47
Er kann sich komplett regenerieren.
1:01:48–1:01:52
Also wenn du ihn in der Mitte durch schneidest, dann baut er wieder einen Schwanz.
Micz Flor
1:01:53–1:01:57
Ja. Okay. Also das heißt, das Tier konnte sich vom Kopf auf der einen Seite, oder.
Florian Clauß
1:01:53–1:01:56
Und so. Also das heißt, das Tier konnte sich dann halt.
1:01:58–1:02:02
Kommen wir noch mal zu. Also, das.
1:02:02–1:02:09
Das ist genau diese Frage von wie kann das entstehen, dass dann halt quasi die
1:02:09–1:02:13
Zellen auf dieser Ebene wissen, okay, wir wir machen jetzt also dieser ganze,
1:02:14–1:02:19
Regenerationsvorgang, den auch du hast du ja beim bei den Molchen oder bei irgendwelchen,
1:02:20–1:02:25
Amphibien auch ein Beispiel Du kannst dann halt einem quasi ein Molch.
1:02:25–1:02:31
Wenn du dem jetzt meinetwegen vom Ärmchen dann den den Unterarm abschneidet,
1:02:32–1:02:37
dann werden die dann regeneriert sich das aber bis zu einem Zustand,
1:02:37–1:02:41
wo dann halt komplett dieser Arm wieder hergestellt ist.
1:02:42–1:02:45
Das heißt die Zellen fangen dann genau da an zu wachsen und regenerieren.
1:02:45–1:02:48
Was, wenn er den Oberarm abschneidet? Dann gehen die halt auf der Stelle los,
1:02:48–1:02:51
und das heißt, das gibt dann halt irgendwie diese Information aus,
1:02:51–1:02:55
der der Gestaltherstellung ist irgendwie ist,
1:02:56–1:03:01
auf so einer zellulären Ebene codiert und die wird dann halt aktiviert in so einer Regeneration.
1:03:02–1:03:03
Das ist ja absolut.
Micz Flor
1:03:03–1:03:06
Interessant, weil das ist jetzt. Wir reden ja nicht mal übers Gehirn.
1:03:07–1:03:11
Und trotzdem ist bei all dem dann natürlich schon immer die Frage wie soll man
1:03:11–1:03:16
so etwas jemals in einem Software Abstraktion Layer für neuronale Netze,
1:03:17–1:03:21
oder Zellen oder Kommunikation zwischen Neuronen herstellen?
Florian Clauß
1:03:22–1:03:28
Es ist die, ähm, etwas, was man dann so übertiteln kann, als die Intelligenz,
1:03:28–1:03:31
quasi in so einem physiologischen Raum.
1:03:31–1:03:36
Also es gibt irgendwo eine Information, eine Intelligenz, die dann halt genau
1:03:36–1:03:42
das herstellen kann, wieder in dieser, in dieser Ausprägung ein anderes also.
1:03:42–1:03:48
Und dann aber ist es immer so eine gewisse mit einer gewissen Metamorphose verknüpft.
1:03:49–1:03:53
Das heißt du musst dann halt so in so einem Prozess sein, wo dann halt auch,
1:03:53–1:03:56
das Lebewesen sich neu zusammensetzt, anders ist.
1:03:56–1:04:05
Die haben jetzt also die arbeiten viel mit so elektro bioelektrischen Prägungen.
1:04:05–1:04:12
Das heißt, die hemmen dann bestimmte Ionen in der Zelle, die dann halten.
1:04:13–1:04:19
Darüber kannst du dann halt eine gewisse Prägung machen, in der, in der Ausführung.
1:04:19–1:04:22
Und da haben die auch irgendwie, ich weiß nicht, das ist so ein Blackbox,
1:04:22–1:04:27
weiß ich nicht genau, aber die wissen ungefähr, wo das Wachstum quasi verortet
1:04:27–1:04:29
ist und können dann halt die Zellen so prägen.
1:04:29–1:04:32
Da haben wir bei so einer Kaulquappe zum Beispiel, die komplett durcheinander
1:04:32–1:04:37
gewürfelt ist. Das Auge war halt irgendwie hinten, der Mund war halt quer und.
1:04:37–1:04:44
Also völlig natürlich, völlig völlig Matsch. Das Gesicht einer Kaulquappe. Aber das.
Micz Flor
1:04:39–1:04:46
Wie völlig Matsch. Das Gesicht einer Puppe. Der Schrei von Munk.
Florian Clauß
1:04:46–1:04:51
Aber das Dinge sein werden, die sich dann in dieser wieder in dieser Metamorphose
1:04:51–1:04:54
befand, wurde ein perfektes Froschgesicht draus.
1:04:54–1:05:00
Das heißt, die haben also diese Fehlerkorrektur jetzt wie bei dem quasi bei
1:05:00–1:05:03
dem, bei den Planetarien, bei diesen.
1:05:04–1:05:08
Bei diesem Strudelwurm ist da auch so in dieser Form auch eingebaut.
1:05:08–1:05:15
Das heißt, es gibt eine gewisse Form von Wissen, dass ich jetzt halt irgendwie,
1:05:15–1:05:18
na das Auge muss jetzt darüber wandern, ein bisschen weiter,
1:05:18–1:05:21
dann ist es in einem perfekten Zustand wieder,
1:05:23–1:05:27
was ja auch nochmal ein anderes Beispiel, was die auch noch mal gemacht haben ist, die haben,
1:05:29–1:05:30
das haben die ja ich weiß nicht.
1:05:31–1:05:37
Sogar glaube ich bei Säugetieren also diesen Kanal, diesen der geformt wird
1:05:37–1:05:43
von Zellen in der Niere, weil der Kidne Tube oder so war. Ich weiß nicht.
Micz Flor
1:05:39–1:05:39
Hm.
1:05:42–1:05:46
Du hast da schon gehört. Dieser Kanal.
Florian Clauß
1:05:44–1:05:51
Ja, und es gibt dieser Kanal wird ursprünglich wird wird von acht oder neun Zellen wird er geformt.
1:05:52–1:05:54
Und jetzt?
Micz Flor
1:05:54–1:05:58
Da haben sie dann irgendwie den Zellwachstum so verändert, dass sie größer wurden.
Florian Clauß
1:05:58–1:06:03
Genau. Genau. Genau. Ja, richtig. Genau.
Micz Flor
1:05:58–1:06:03
Und dann wurde das dann sogar, weil es nur eine Zelle war, hat sich selbst gewunden.
1:06:04–1:06:05
Das heißt, schon mal gehört?
Florian Clauß
1:06:04–1:06:08
Also, das heißt, diese Information zur morphologischen Herstellung.
1:06:08–1:06:11
Das heißt, eine Zelle kann dann auf einmal einen Kanal formen.
1:06:12–1:06:14
Ja, das ist also, warum?
1:06:15–1:06:19
Also, die vergrößern sich. Die Zellen sind. Aber machen dann jede Zelle.
1:06:19–1:06:22
Okay, macht dann so, dass es wieder ein Kanal ist.
1:06:22–1:06:25
Aber dann kann sogar eine Zelle diesen Kanal formen, das heißt,
1:06:25–1:06:27
diese Gesteinsausprägung,
1:06:28–1:06:32
dieser Konstruktion splan, die die Zelle dann, also das ist dann wieder so,
1:06:32–1:06:39
dieses auf der diese Intelligenz auf zellulärer Ebene die halt so das ist dann wieder diese Differenz,
1:06:41–1:06:45
zu so einem neuronalen Machine Learning Netzwerk das ist halt so total faszinierend.
Micz Flor
1:06:49–1:06:54
Ja, es ist halt auch insofern interessant, weil wir reden dann immer ja oder nicht?
1:06:54–1:06:59
Wir aber, die reden dann alle immer Information und die Information ist ja dann
1:06:59–1:07:04
erkenne die Katze im Foto, da erkenne in diesen Pixel eine Katze,
1:07:04–1:07:05
es ist eine Katze, dann ja,
1:07:06–1:07:12
und dann verbessere deine Wahrscheinlichkeit eines richtigen Ergebnisses.
1:07:12–1:07:15
Und jetzt reden wir auch über Informationen, Aber wir reden nicht über Informationen,
1:07:16–1:07:20
auf dieser Ebene von künstlicher Intelligenz, sondern es geht im biologischen System darum, unser.
Florian Clauß
1:07:19–1:07:22
Genau. Genau. Und da war noch ein anderes Beispiel. Jetzt nochmal einen anderen
1:07:22–1:07:27
Kontext, aber es passt ganz gut rein. Haben die auch zum Beispiel bei Hirschen festgestellt.
1:07:27–1:07:35
Wenn du einem Hirsch quasi auf dem Skelett eine kleine Verletzung bei einer
1:07:35–1:07:37
Stelle dann halt erzeugst.
1:07:38–1:07:39
Das ist dann in dem Moment, wenn.
Micz Flor
1:07:38–1:07:43
In dem Moment. Das heißt Schuss. Das heißt Schuss. Die.
Florian Clauß
1:07:41–1:07:47
Nein. Aufgeweichte also das Schnitz das Geweih an einer bestimmten Stelle ein.
Micz Flor
1:07:47–1:07:48
Hm.
Florian Clauß
1:07:48–1:07:53
Das die stoßen ja das Geweih immer jährlich ab und das wurde festgestellt,
1:07:53–1:07:58
dass dann halt da wo die Verletzung war, dass dann quasi der eine Abzweigung entsteht.
Micz Flor
1:07:58–1:08:01
Beim nächsten und übernächsten. Krass.
Florian Clauß
1:07:59–1:08:03
Beim nächsten Geweih also und und das passiert so lange es passiert,
1:08:03–1:08:08
ungefähr 3 bis 5 Jahre und dann ist es weg.
Micz Flor
1:08:07–1:08:07
Ist es weg.
Florian Clauß
1:08:09–1:08:13
Aber das ist halt auch wieder, wo wird diese Erinnerung dann quasi vorgehalten?
1:08:14–1:08:16
Es sind ja quasi dann auch Zellen, die sind ja dann nicht mehr da.
Micz Flor
1:08:17–1:08:21
Also ich würde ja davon ausgehen, nach deiner Ameisenfolge, dass die Hirsche
1:08:21–1:08:26
auch sehr soziale Lebewesen sind und dann sagen halt die Hirsche zum Hirsch,
1:08:26–1:08:30
also letztes Jahr zu da es hat dir ganz gut gestanden.
1:08:30–1:08:34
Versuch mal, denk einfach nein, du musst einfach innerlich ein mentales Bild
1:08:34–1:08:37
bauen, dass da jetzt was raus wächst. Das war echt gut. Probier das noch nochmal.
Florian Clauß
1:08:37–1:08:44
Ja und? Und dann bin ich out of the red now. Nein. Woher weißt du das? Wir haben doch nur 1/4.
Micz Flor
1:08:45–1:08:48
Ja, es ist interessant. Ich. Ich. Der Begriff der Epigenetik kommt mir halt,
1:08:49–1:08:52
auf den Kopf. Also diese Umwelt. Aber das ist natürlich.
Florian Clauß
1:08:49–1:08:56
Ja, ja, der wird noch viel heftiger denn je. Nein, aber es ist da.
Micz Flor
1:08:52–1:08:54
Okay, gut. Der kommt noch, oder? Was?
Florian Clauß
1:08:56–1:09:01
Also das finde ich halt auch so fraglich, wie er dann halt bestimmte Versuchsanordnungen,
1:09:01–1:09:05
Experimente, diese ganze, diese Frage von Ethik, Genetik, diese ethische.
Micz Flor
1:09:05–1:09:08
Einen Epigenetik, meine ich jetzt. Also Epigenetik ist quasi die.
1:09:08–1:09:12
Der Zusammenhang zwischen eine Ethik ist natürlich auch ein Thema beim.
1:09:12–1:09:15
Beim Hirschschnitzen und Kaulquappen Gesicht geht's los.
1:09:15–1:09:21
Aber Epigenetik ist ja eben diese Zusammenhang zwischen Aktivierung von Gensequenzen,
1:09:21–1:09:26
um bestimmte Dinge herzustellen und und diese also Anlage Umwelt Korrespondenz,
1:09:26–1:09:29
die halt immer wieder auch ähm,
1:09:31–1:09:35
ja, wie eben Lebewesen auch auf verändernde Umweltbedingungen direkt reagieren
1:09:35–1:09:37
können anhand des Genpools, den sie schon haben. So.
Florian Clauß
1:09:38–1:09:44
Wurde auch dann in einer Publikation zugemacht haben.
1:09:44–1:09:48
Das Team, das war schon ein bisschen länger her, aber das wird dann auch immer rausgeholt.
1:09:48–1:09:58
Ist auch wieder bei diesen Planetarien, da haben die halt diesen Wachstum von einem Kopf.
1:09:58–1:10:03
Also wenn es geschnitten wird, das ist halt dann quasi sich dann sehr regeneriert,
1:10:03–1:10:10
und dann haben wir es quasi die Zellen so beeinflusst, dass die halt einen zweiten
1:10:10–1:10:11
Kopf wachsen lassen konnten.
Micz Flor
1:10:11–1:10:14
Hm. Also, das ist total okay.
Florian Clauß
1:10:12–1:10:15
Also das ist ja total wohl.
1:10:15–1:10:18
Diese Information ist dann auch so verstreut über bestimmte Bereiche,
1:10:18–1:10:23
aber das ist dann auch, dass das, nachdem der halt quasi geschnitten wurde,
1:10:23–1:10:28
hat er dann einen zweiten Kopf ausgebildet, dann ein zweiköpfiges Tier und.
Micz Flor
1:10:28–1:10:32
Dieser Wurm ist. Man muss sich immer fragen. Der vermehrt sich nur,
1:10:32–1:10:34
wenn er durchgeschnitten wird, oder?
Florian Clauß
1:10:34–1:10:38
Nein, Wir sind Zwitter. Der. Vermeintlich. Geschlechtlich.
Micz Flor
1:10:39–1:10:43
Aber wie? Wie vermehrt er sich? Also wenn, der hat jetzt keinen, der hat sein.
Florian Clauß
1:10:40–1:10:44
Meine. Der vermeintlich vermeintlich normal.
Micz Flor
1:10:47–1:10:48
Gut.
Florian Clauß
1:10:50–1:10:53
Nein. Also sexuell. Also wir vermeintlich. Halt.
Micz Flor
1:10:53–1:10:58
Mit sich selbst oder mit anderen. Oder aber was mischt er denn dann.
Florian Clauß
1:10:55–1:10:57
Nein, nein, nein, nein, nein. Das ist kein Hermaphrodit ist.
Micz Flor
1:10:58–1:11:00
Wenn er, wenn er sich befruchtet, gegenseitig, Wenn der Sein,
1:11:01–1:11:05
sein Genom sowieso nur Müll ist? Wie? Wie hat er dann überhaupt Sex?
1:11:05–1:11:08
Oder hat er gar keinen Sex? Vielleicht hat er gar keinen Sex?
Florian Clauß
1:11:06–1:11:10
Nein, der hat recht. Natürlich lassen wir den Wurm in Ruhe.
Micz Flor
1:11:11–1:11:13
Ich glaub, ich glaub, der hat keinen Sex.
Florian Clauß
1:11:13–1:11:18
Doch während du versagst, kann das Geschlecht wechseln. Also je nachdem was benötigt wird.
Micz Flor
1:11:16–1:11:17
Und okay.
Florian Clauß
1:11:19–1:11:23
Ist halt irgendwie entweder Eizelle oder Spermium. Kann er dann halt.
1:11:23–1:11:26
Es ist kein Selbstbefruchter, aber es ist halt ein Zwitter.
Micz Flor
1:11:25–1:11:27
Selten davon. Okay.
Florian Clauß
1:11:28–1:11:32
Und also geschlechtliche Arbeit ist immer.
1:11:33–1:11:41
Diese Szenarien wie beim Lurch oder so, das ist ja immer, wenn quasi das Tier verliert.
1:11:41–1:11:45
Es geht immer um diesen Verletzungszustand oder um diese Metamorphose.
1:11:45–1:11:49
Das heißt dann, wenn halt quasi ein Zustand eingetreten ist,
1:11:50–1:11:53
der dann halt dich erst mal benachteiligt.
1:11:54–1:11:58
Und, und das ist das Interessante ist halt, dass wenn die halt die diesen Wurm
1:11:58–1:12:03
dann so programmiert haben, dass er sich dann halt zwei Köpfe wächst.
1:12:04–1:12:09
Es ist halt scheißegal, ob er das halt irgendwie so, der kann auch so was, der kann auch so weiter.
1:12:09–1:12:12
Aber in dem Moment, wenn halt geschnitten wird, dann hat diese Information kommt
1:12:12–1:12:17
die raus auch die kann auch halt sehr sehr viel später kann der halt dann verteilt
1:12:17–1:12:21
werden und trotzdem ist diese Information bleibt die erhalten.
Micz Flor
1:12:21–1:12:26
Das heißt er wird weiterhin auch nach Teilung dann zwei Knöpfe knöpfen.
Florian Clauß
1:12:25–1:12:33
Genau das ist das elektrische Muster, was dabei quasi beeinflusst wird.
1:12:33–1:12:39
Das ist auch gleichzeitig so ein Muster Gedächtnis, was dann halt damit trainiert
1:12:39–1:12:43
wird oder oder nicht trainiert, aber wo es dann halt gespeichert ist.
1:12:44–1:12:45
Also das Gedächtnis davon.
Micz Flor
1:12:46–1:12:49
Aber weiß man, wo das gespeichert? Also wenn ich es richtig verstehe, man.
Florian Clauß
1:12:48–1:12:51
Ja, ja, genau. Die haben das auch gezeigt. Dann musst du halt eine.
1:12:52–1:12:55
Das sind dann wahrscheinlich so Experimente, oder? Keine Ahnung.
1:12:55–1:12:57
Also das ist so ein bisschen Vertrauen. Blackbox.
1:12:57–1:13:03
Wir haben dann über verschiedene Regionen im Körper von dem dann halt gezeigt,
1:13:03–1:13:05
wo man das dann halt beeinflussen muss.
1:13:05–1:13:08
Das ist jetzt nicht eine Zelle, sondern es sind dann halt so Regionen.
1:13:09–1:13:12
Aber weiß ich nicht, das ist auf so einer High Level Ebene, das weiß man nicht, wie man das.
Micz Flor
1:13:10–1:13:14
Aber wenn nicht ich? Wenn ich das richtig verstehe, ist es so.
1:13:14–1:13:17
Du hast einen Wurm, Dieser Wurm.
1:13:18–1:13:23
Wenn er durchschnitten wird, dann bilden sich zwei Würmer komplette Würmer draus. Oder nur eine?
Florian Clauß
1:13:23–1:13:29
Nein, ich glaube, der wird nur der hintere Teil der der stirbt ab da der Schwanz.
1:13:29–1:13:32
Also da kommt kein Kopf raus, sondern quasi das.
1:13:33–1:13:36
Der Kopf ist schon das, was dann weiterlebt, das Individuum.
1:13:36–1:13:39
Und der kann sich einen neuen Schwanz generieren.
Micz Flor
1:13:38–1:13:43
Generieren. Und da kann dann wieder ein Kopf dran sein, wenn man ihn umprogrammiert. Das ist okay.
Florian Clauß
1:13:42–1:13:44
Genau das ist das Experiment.
Micz Flor
1:13:44–1:13:51
Und diese diese Information entsteht über eine wie auch immer geartete,
1:13:53–1:13:55
ein elektrisches Feld, oder?
Florian Clauß
1:13:56–1:13:59
Ein elektrisches Feld. Die haben das quasi.
1:14:01–1:14:08
Ja. Also über. Über elektrische Methoden. Diese Speicher also jetzt nicht chemisch,
1:14:08–1:14:13
sondern elektrisch. Dann so beeinflusst die Zellen, dass die diese Informationen gegeben haben.
Micz Flor
1:14:13–1:14:14
Die.
Florian Clauß
1:14:14–1:14:18
Also das ist aber wie gesagt, das ist wirklich so alles schon ganz oben drauf.
Micz Flor
1:14:17–1:14:23
Aber der Wurm ist kein Einzeller. Ist ein Mehrzeller. Ja, klar. Okay. Okay.
Florian Clauß
1:14:18–1:14:22
Gekommen. Nein. Klar. Das ist ein Superzeller.
1:14:24–1:14:25
Also richtig, richtig gut.
Micz Flor
1:14:25–1:14:31
Ja. Viele Zellen, viel Sex. Okay. Ich verstehe. Toller Wurm.
1:14:31–1:14:33
Dieser Wurm ist ein toller Hecht.
Florian Clauß
1:14:33–1:14:37
Man kann nicht komplett generieren, ist eigentlich unsterblich.
Micz Flor
1:14:34–1:14:35
Und. Okay.
1:14:37–1:14:39
Okay. Ein richtig gutes Tier.
Florian Clauß
1:14:37–1:14:39
Also richtig. Also ein richtig gutes Tier.
Micz Flor
1:14:41–1:14:43
Ja. Man kann die extremst mit anfassen.
Florian Clauß
1:14:41–1:14:43
Und kann sich extremst gut anpassen.
1:14:45–1:14:53
Ähm, also das heißt, wir haben Zellen, die jetzt quasi einen höher sind,
1:14:53–1:14:56
also dieses goal fulfilling.
1:14:57–1:14:58
Also das ist das Ziel.
1:14:59–1:15:04
Wenn ich dann auch so einer in so einer Entwicklung bin, dann als Zelle,
1:15:05–1:15:08
dann werde ich halt Zellleber oder so..
1:15:08–1:15:11
Das heißt, irgendwo gibt es dann halt irgendwie jede Zelle. Okay,
1:15:11–1:15:14
ich mache das so, aber dann gibt es halt diese Arten von Zellen,
1:15:15–1:15:19
die abgeschnitten sind, das heißt, sie nicht diesem Körper,
1:15:20–1:15:23
diesem höheren gestalterischen Werk dann.
Micz Flor
1:15:23–1:15:28
Na dann. Langzeitarbeitslose? Nein, das sind. Das sind die. Zählen die dann halt sich selbst?
Florian Clauß
1:15:25–1:15:31
Nein, das sind, das sind die Zellen, die dann sich selbst quasi dann wieder sich selbst genügen.
1:15:31–1:15:34
Und was passiert mit den Zellen, die wachsen? Das sind Krebszellen.
Micz Flor
1:15:35–1:15:36
Okay, Halt. Genau dieses Ding.
Florian Clauß
1:15:35–1:15:37
Das ist halt genau dieses Ding, das ist Krebs.
1:15:38–1:15:39
Also jetzt auch so aus einer ganz.
Micz Flor
1:15:40–1:15:45
Also Krebs ist eine Zelle eines Organismus. Der oder die muss sein.
1:15:46–1:15:52
Gendern oder nicht? Was wird aus der aus dem Verband irgendwie abgekapselt und
1:15:52–1:15:55
fängt dann einfach an zu tun, was Zellen halt tun Sich zu vermehren.
Florian Clauß
1:15:56–1:16:00
Also ganz grob gesprochen. Ja, genau das.
1:16:00–1:16:05
Das heißt, die vermehren sich und sie, sie sind quasi Selbstzweck,
1:16:05–1:16:09
erfüllen nicht diesen, diesem allgemeinen Ziel.
1:16:10–1:16:18
Und auch hier ist die Frage so, also die da wieder die Intelligenz auf zellulärer Ebene.
1:16:18–1:16:22
Und so ein Roboter kann jetzt keinen Krebs bekommen, weil es gibt dann halt
1:16:22–1:16:24
immer so eine Hierarchie.
1:16:25–1:16:29
Also das ist halt auch auch wieder so ein Gedankenexperiment.
1:16:29–1:16:31
Was müsste passieren, damit ein Roboter Krebs bekommt?
1:16:32–1:16:36
Nee, also das wäre ja auch schon wieder so eine biologische.
Micz Flor
1:16:37–1:16:42
Also das Bild, was sich in mir auslöst, ist natürlich dann irgendwie keine Ahnung,
1:16:42–1:16:46
dass irgendein System ein Teilsystem des Roboters nicht genutzt wird und dann
1:16:46–1:16:48
läuft halt irgendwann die Batterie aus.
1:16:49–1:16:53
Ja, das wäre so ein Bild, was ich habe. Wo sind wir eigentlich gerade?
Florian Clauß
1:16:53–1:16:56
Wer sind wir? Wir können nur mal ein bisschen hier durchgehen.
1:16:56–1:17:00
Ich glaube, wir sind jetzt quasi parallel zu dieser Hauptstraße.
Micz Flor
1:17:01–1:17:04
Es ist echt irre, dieses Laufen beim Reden und laufend Reden.
1:17:04–1:17:08
Wenn man es in Bergen macht, dann weiß man ja immer bleibt irgendwie bei der
1:17:08–1:17:10
Farbe. Markierung läuft halt einfach immer weiter.
1:17:11–1:17:15
In der Stadt merke ich, dass ich komplett jede Orientierung verliere. Es.
Florian Clauß
1:17:14–1:17:20
Ja, es stimmt. Du hast einfach keine. Keine Skyline. Du hast keinen Horizont. So richtig.
1:17:21–1:17:25
Und das. Was? Was Jetzt auch nochmal Ein total spannendes,
1:17:27–1:17:33
Teilprojekt von denen. Was aber auch wieder auf den Forschungsarbeiten von anderen beruht.
1:17:34–1:17:39
Die haben, die haben sogenannte Xenobots.
1:17:39–1:17:42
Ich weiß nicht, ob du davon schon mal gehört hast. Genau.
Micz Flor
1:17:40–1:17:42
So war es dann schon mal gehört. Ja, ja, davon habe ich gehört.
1:17:42–1:17:45
Habe ich den nicht immer sogar erwähnt? Kann sein.
Florian Clauß
1:17:44–1:17:48
Es kann sein, dass du die erwähnt hast. Aber hier ist eine Sackgasse.
Micz Flor
1:17:46–1:17:50
Ich glaube, das war bei. War das nicht so?
1:17:50–1:17:54
Nee, weiß ich nicht mehr. Ich glaube bei Konrad Zuse mit dem Biologie Ding,
1:17:54–1:17:55
da ist mir das irgendwie untergekommen.
1:17:55–1:18:03
Xenobots sind so was wie Zellen von einem Organismus, die miteinander zusammengefügt
1:18:03–1:18:06
werden und ein neues Lebewesen erstellen.
Florian Clauß
1:18:06–1:18:12
Ja, also man liebte es, das erste artifiziell geschaffene wilde Wesen, was man darf.
1:18:12–1:18:19
Und es sind von einem afrikanischen Frosch die Hautzellen, die ein Teil des Spots ausmachen.
1:18:20–1:18:24
Werden so für die ganze Versorgung zuständig sind und für die Ernährung.
1:18:24–1:18:25
Und der andere Teil sind.
1:18:26–1:18:33
Wir haben einmal Herzmuskeln genommen, von denen Frosch und oder so.
Micz Flor
1:18:28–1:18:29
Ja.
Florian Clauß
1:18:33–1:18:39
Wir sind quasi Herrchen Zellen. Wir können helfen aus den.
Micz Flor
1:18:39–1:18:40
Von Fröschen.
Florian Clauß
1:18:41–1:18:46
Auf der Froschhaut gibt. Wobei mir eine wollten ja bis jetzt beeinflussen will.
1:18:46–1:18:52
Aber im Prinzip diese Herz oder Herzchen Muskelzellen sind dann für die Fortbewegung zuständig.
Micz Flor
1:18:52–1:18:58
Okay, die sind quasi muskelähnlich, aber eben keine Muskel Muskeln mehr und auch Herzmuskels.
Florian Clauß
1:18:58–1:19:03
Zöllner schon. Ja, ja. Und dann haben wir halt ganz viele.
1:19:04–1:19:09
So auch so ein neuronales Netz ohne Binden durchlaufen lassen,
1:19:09–1:19:14
was dann halt die Kombination aus diesen beiden Zelltypen berechnet haben,
1:19:14–1:19:16
So ein bisschen wie Minecraft.
1:19:16–1:19:22
Die einen waren halt blau, die anderen halt rot gezeichnet und haben darauf halt.
1:19:22–1:19:25
Daraufhin halt diese diese Kinobots Design.
1:19:25–1:19:30
Und die effektivste, die sich am effektivsten bewegt haben usw. Und dann konnten die,
1:19:32–1:19:39
teilweise so durch so Gänge bewegen konnten Babys intelligentes Bewegungsverhalten,
1:19:39–1:19:42
also Intelligenz gesteuertes Bewegungsverhalten.
1:19:42–1:19:47
Wenn er sie können konnten dann halt. Und wir können jetzt in der dritten vierten
1:19:47–1:19:52
Generation das ist halt auch diesem Team vermittelt auf dass die sich reproduzieren können.
1:19:53–1:19:59
Ich bin kein Jogi Löw. Vielleicht, weil ich den ganzen Schotter um die uhr und
1:19:59–1:20:02
dann wieder zusammen getragen haben und daraus dann neue zimmert.
1:20:02–1:20:07
Worte. Entstanden sind allerdings Interviews mit Leuten, die schon dieses Next Level.
1:20:08–1:20:10
Und mögen sie so zu sein.
1:20:11–1:20:13
Und er ist krass.
Micz Flor
1:20:13–1:20:17
Da gibt es doch wie heißt das noch mal, dieses Game of Life, oder?
1:20:17–1:20:21
Ich weiß genau wo, wo man bestimmte Regeln hat. Das 110.
1:20:21–1:20:27
Hab ich dir doch auch mal einen Link geschickt, wo quasi Game of Life als Programm
1:20:27–1:20:31
war für Game of Life, wo das quasi in sich selbst programmiert war.
1:20:32–1:20:33
Mal gucken, ob ich das nochmal finde.
Florian Clauß
1:20:34–1:20:34
Und.
1:20:37–1:20:41
Das alles? Das ist schon sehr faszinierend, was? Krass. Und?
1:20:41–1:20:45
Und diese Vision von diesem Michael Leben ist halt.
1:20:46–1:20:50
Also, wir haben so ein klassisches Bild von den Menschen.
1:20:50–1:20:56
Es gibt Tiere, es gibt den Engel, dessen Seele allerdings schon sehr viel breiter gefächert war.
1:20:56–1:21:01
Es gibt alle möglichen Formen von. Zukünftig würde alles so ein bisschen durcheinander
1:21:01–1:21:03
laufen, das heißt es gibt Einheit.
1:21:04–1:21:10
Es gibt dann halt irgendwie so normale biologische Wesen, so dazwischen Wesen.
1:21:10–1:21:15
Es gibt ein bisschen das, also hat das so komplett divers gemacht und dann und,
1:21:15–1:21:18
das ist so ne gewisse Vision, aber gleichzeitig,
1:21:19–1:21:24
wenn ich das halt schon ein bisschen fragwürdig aus den ethischen Gesichtspunkten
1:21:24–1:21:26
heraus, was passiert denn dann,
1:21:27–1:21:31
wenn wir diese diese Lebensformen so generiert aus dem Material,
1:21:31–1:21:36
was erstmal so biologisch überhaupt mit Umgebung irgendwie zusammen kommen kann?
1:21:36–1:21:41
Also wenn man halt so einen natürlichen Prozess von Biologie und Emotionen dahinter.
Micz Flor
1:21:41–1:21:42
Interessant auch da wieder.
Florian Clauß
1:21:42–1:21:47
Vergiss es, freier Mann. Wir hätten auch gesagt, wenn die Zellen in seiner Generation
1:21:47–1:21:49
mutieren als Krebse, dann sind die befreit.
1:21:49–1:21:55
So eine Therapie kann man. Vielleicht muss man muss. Befreiung.
Micz Flor
1:21:50–1:21:51
Wir haben die Ausstellung.
1:21:55–1:21:55
So sehen.
Florian Clauß
1:21:56–1:21:58
Es ist ja auch was Bösartiges.
1:21:59–1:22:00
Aber wer so sehr.
Micz Flor
1:22:02–1:22:05
Aber es ist doch. Ich denke jetzt gerade so ein bisschen wie diese Sache,
1:22:05–1:22:08
so der Mensch sich selbst ins Zentrum stellen, sich selbst bewerten,
1:22:08–1:22:09
beobachten, beschreiben.
1:22:10–1:22:17
Und da fände ich das ganz spannend, wenn man so sagt, dass jede Zelle bis zu
1:22:17–1:22:20
einem gewissen Grade scheinbar spezialisiert ist, aber dann irgendwie universell
1:22:20–1:22:24
einsetzbar in neuen Systemen verschränkt werden kann und dass,
1:22:25–1:22:28
da denke ich dann auf einer gesellschaftlichen Ebene zum Beispiel an diese No
1:22:28–1:22:32
borders Bewegung, dass man sagt so, es gibt so was wie Nationalstaaten und Grenzen,
1:22:32–1:22:35
das ist völlig arbitrary, das braucht man nicht.
1:22:35–1:22:39
Das ist ein Konstrukt, was dem Menschen nicht entspricht.
1:22:40–1:22:47
Und wenn man das halt irgendwie so festhält, dann ist das doch nicht viel anders,
1:22:47–1:22:48
wie das, was du gerade beschrieben hast.
1:22:48–1:22:54
Diese Idee, dass wir, dass wir diese, diesen in sich geschlossenen großen Organismus,
1:22:55–1:22:59
dass es den so gar nicht gibt, also dass der dass, das wissen wir ja schon lange,
1:22:59–1:23:03
dass das Bio und Genom und wie auch immer und jetzt kommt die Elektro.
1:23:04–1:23:09
Bio Elektrizität noch irgendwie dazu und dass sich das alles so diese Grenzen
1:23:09–1:23:13
so auflösen, dass das so ein Unwohlsein herstellt, dass man gerne möchte,
1:23:14–1:23:16
dass die Leber den Iris trainiere Und da möchte ich auch nicht,
1:23:16–1:23:17
dass das irgendwie verändert wird.
1:23:17–1:23:21
Traditionsbewusst ja, aber ich glaube, das ist ein menschlicher Wunsch.
1:23:21–1:23:24
Also dass man genauso wieder sagt so ja, Deutschland ist Deutschland, Bayern ist Bayern.
1:23:25–1:23:28
Dass man halt irgendwie genauso her sagt Zur Leber ist Leber bsp.
1:23:28–1:23:30
Schnaps, Schnaps und dann.
1:23:32–1:23:37
Und dadurch dann diese Idee. Dass es so viel flexibler und beweglicher ist,
1:23:37–1:23:39
ist halt auch enorm irritierend.
Florian Clauß
1:23:39–1:23:43
Genau. Eigentlich bin ich jetzt so ähnlich. Wir noch ein paar Punkte.
1:23:44–1:23:45
Also ich glaube, das. Was dann?
1:23:46–1:23:51
Also dieses. Dieses Bild von dieses diverse was du jetzt auch gerade noch dieser
1:23:51–1:23:57
Wunsch dass man das dann irgendwie doch irgendwie so traditioneller oder begreifbarer menschlicher macht.
1:23:58–1:24:03
Aber das ist halt auch so, da zeigt sich so ein so ein so ein Feld was,
1:24:03–1:24:06
was man glaube ich noch gar nicht so richtig so begreifen kann.
1:24:06–1:24:10
Aber finde ich total spannend. Also hat mich.
Micz Flor
1:24:10–1:24:12
Was ich total gut finde an dem, was ich gerade so gehört habe,
1:24:12–1:24:13
wie du es beschrieben hast.
1:24:15–1:24:18
Was? Das Genom.
1:24:20–1:24:25
Was ja auch keine Ahnung über 50 60 Jahre eigentlich schon bekannt ist und entschlüsselt wurde.
1:24:25–1:24:30
Das hat uns ja sehr dazu verleitet, in Turingmaschinen zu denken und zu sagen
1:24:30–1:24:35
Wenn wir das erst mal entschlüsselt haben, dann haben wir den Schlüssel zum Leben und und.
1:24:37–1:24:41
Die das ist natürlich was, was in der Wissenschaft dann irgendwie so auch Einzug
1:24:41–1:24:45
gehalten hat. Da wurde nämlich dann auch und das ist die Brücke zur künstlichen
1:24:45–1:24:49
Intelligenz immer gesagt naja, wir müssen erst mal ein Gehirn irgendwann so
1:24:49–1:24:51
kartografieren und so detailreich.
1:24:51–1:24:53
Wenn wir das einmal gemacht haben, dann haben wir es auch verstanden,
1:24:53–1:24:55
wie das Gehirn funktioniert.
1:24:56–1:25:01
Was natürlich sehr schnell klar geworden ist Nicht nur auf Genomebene gibt es,
1:25:01–1:25:06
große, große, große Varianzen, wo teilweise Teile, wo man nachhinein erst merkt,
1:25:06–1:25:10
dass das wirklich auch als Speicher genutzt wird und nicht nur als reproduzierende,
1:25:11–1:25:13
Proteinschablonen.
1:25:14–1:25:18
Und beim Gehirn ist es ja noch viel mehr so, dass Gehirn keine zwei Gehirne sind gleich.
1:25:18–1:25:21
Und trotzdem ging man lange dahin zu sagen Ach, wir müssen einfach mal eins
1:25:21–1:25:23
nachbauen und dann haben wir alles gecheckt.
1:25:23–1:25:31
Und was du jetzt gerade beschreibst. Diese Auflösung von Grenzen, von Leben und Tod.
1:25:31–1:25:35
Man hat ja immer schon diese Thematik gehabt. Stammzellen sind können alles
1:25:35–1:25:37
werden, aber ab einem gewissen Punkt ist es irreversibel. Dann können sie nur,
1:25:37–1:25:39
in eine bestimmte Richtung sich weiterentwickeln.
1:25:40–1:25:43
Das ist trotzdem jetzt mit dem, was du gerade beschreibst, diese Möglichkeit,
1:25:44–1:25:48
auch über wie auch immer geartete. Da habe ich nicht genau kapiert.
1:25:48–1:25:50
Aber elektrische Interventionen dann.
1:25:52–1:25:57
Wissen weiter zu vererben, in geteilten Tieren irgendwie zwei Köpfe zu implementieren,
1:25:57–1:25:59
das zeigt ja, dass es eben nicht
1:25:59–1:26:05
so einfach ist zu sagen, ich nehme dieses lebendige biologische Ding,
1:26:07–1:26:11
lege es hin, bis es tot ist und dann esse ich es aus und dann habe ich es kapiert.
Florian Clauß
1:26:10–1:26:11
Ja, genau.
Micz Flor
1:26:11–1:26:15
Sondern gerade das mit dieser Bio Elektrizität ist ja wohl ein großes Zeichen
1:26:15–1:26:21
dafür, dass das im Leben Dinge auch jenseits der Genetik, jenseits von Serum,
1:26:21–1:26:25
jenseits von Mitochondrien, jenseits von was weiß ich weitergegeben werden können.
1:26:27–1:26:31
So, und das, was ich am verwirrend sten finde, ist wirklich das mit dem Hirsch.
Florian Clauß
1:26:28–1:26:29
Ja, Ja. Also, genau.
Micz Flor
1:26:33–1:26:36
Das würde mich begleiten. Aber es ist ja auch wieder nur zeigt.
1:26:36–1:26:39
Ich bin als Mensch natürlich dem Hirsch verwandter als dem Wurm,
1:26:39–1:26:44
obwohl ich mehr Würmer in mir hab als Hirsche, aber trotzdem.
Florian Clauß
1:26:45–1:26:51
Das will das Bild im Kopf. Und dein Hirsch guckt raus. Ach, Scheiße, Schon wieder?
1:26:51–1:26:53
Ich habe ihn da gerade verletzt.
1:26:54–1:26:59
Ähm, ja, genau. Also, das ist irgendwie so, diese Entschlüsselbarkeit, diese.
1:26:59–1:27:03
Diese Vorstellung. Wir entschlüsseln das Genom und wissen dann Bescheid und
1:27:03–1:27:06
können dann die Rätsel des Lebens lösen.
1:27:06–1:27:11
Das war ja ganz, ganz lange so dieses. Genau dieser Gedanke,
1:27:12–1:27:14
wo diese Entschlüsselung von von
1:27:14–1:27:18
gehen dann halt so auch so extrem viel Forschungsgelder usw. bekommen hat.
1:27:19–1:27:22
Und das ist halt irgendwie man merkt okay, da sind wir jetzt noch nicht fertig.
1:27:23–1:27:26
Das zeigt uns noch nicht irgendwie, dass es halt irgendwie möglich ist.
1:27:27–1:27:31
Aber man kann natürlich dann fährt ein größeres Tool Set, das man anwenden kann,
1:27:32–1:27:37
dann kommt CRISPR CAS, diese Genschere, das ganze aus Vielzahl gesteuert und das machen.
1:27:38–1:27:44
Also das meint auch das ist auch in dem Vergleich in dem in der Beschreibung von dem Wurm dass,
1:27:44–1:27:48
du kannst halt keine Mutter der hat keine Mutationen also du kannst halt irgendwie,
1:27:48–1:27:52
kannst jedem Tier irgendeine Mutation machen durch durch durch Gensteuerung
1:27:52–1:27:56
die man kein Problem wir können irgendwie fliegen, dann rote Augen machen,
1:27:56–1:27:59
wir können Hühner ohne Zehen, wir können halt,
1:28:00–1:28:05
weiß ich nicht alles mögliche an Mutationen machen, aber der Wurm ist resistent dagegen.
1:28:05–1:28:09
Also der hat das halt alles so raus. Fehler korrigiert und das geht nicht,
1:28:09–1:28:13
oder Dann haben wir auch halt irgendwie dem so ein Krebsgeschwür eingepflanzt,
1:28:14–1:28:16
und das hat er dann halt aufgelöst.
1:28:16–1:28:21
Es war dann halt, äh wirklich faszinierendes Tierchen. Ja, und?
Micz Flor
1:28:21–1:28:25
Muss. Den Wurm kenne ich. Ich muss ja noch nachforschen. Ich fand es auch noch interessant.
1:28:25–1:28:30
Was bei mir nur mal angestoßen hat, ist halt auch diese Dieses weise Leben wird
1:28:30–1:28:33
ja immer so was ganz prekäres beschrieben.
1:28:33–1:28:37
Und wir haben ja auch auf unserer menschlichen Ebene wieder unglaublich viel
1:28:37–1:28:41
lebenserhaltende Systeme implementiert, über Notarzt, über Tabletten oder sonst wo.
1:28:41–1:28:46
Das Leben muss halt irgendwie geschützt und aufrechterhalten werden und gleichzeitig
1:28:46–1:28:49
ist das Leben ja mit dem, was du beschrieben hast, jetzt auch mit diesen Xenobots,
1:28:50–1:28:55
unglaublich anpassungsfähig und dann auch so flexibel.
1:28:55–1:28:58
Und dann dachte ich an etwas. Ich weiß nicht, ob du das kennst.
1:28:58–1:29:06
Die Gonaden, das sind die, bevor man weiß, ob es Eier oder Spermien werden, also bevor man.
1:29:06–1:29:12
Man gibt es halt quasi so schon angelegte geschlechtliche Fortpflanzung und.
Florian Clauß
1:29:11–1:29:12
Ja, okay.
Micz Flor
1:29:12–1:29:15
Ähm, und das fand ich so ganz irre, ich weiß gar nicht mehr,
1:29:15–1:29:17
wo ich das glaub ich auch.
1:29:17–1:29:19
Im Podcast muss man gucken, da gibt es einen, der genau ist.
1:29:19–1:29:22
Das sind drei Teile, glaube ich, von Radio Lab über die Gonaden,
1:29:24–1:29:27
und da wurde auch noch drin beschrieben, dass in dem Moment,
1:29:27–1:29:35
wenn eine der ganz frühen Entwicklungsphasen im Embryo ist die Gonaden Wanderung, so dass.
1:29:37–1:29:45
Im Mutterleib sich schon die Die Zellen der übernächsten Generation,
1:29:45–1:29:48
also noch bevor es geboren wird, wird da schon natürlich angelegt.
1:29:48–1:29:51
Die Generation drauf, und das ist eine ganz wichtige Sache.
1:29:51–1:29:57
Also dass das Leben im Mutterbauch werden quasi die Enkelkinder mit als erstes hergestellt.
Florian Clauß
1:29:58–1:29:59
Du willst. Sackgasse.
Micz Flor
1:29:59–1:30:02
Das ist auch eine Sackgasse. Und das fand ich total irre.
1:30:03–1:30:07
Es muss, ja muss ja sein. Aber dass halt eben nicht einfach nur die Geburt der
1:30:07–1:30:09
nächsten Generation ist und die kümmert sich um die nächste,
1:30:09–1:30:13
sondern nein, im Mutterleib wird die übernächste Generation auch schon mit angelegt.
Florian Clauß
1:30:13–1:30:14
Der Wahnsinn.
Micz Flor
1:30:14–1:30:18
Und wenn die die Eier zum Beispiel wenn dann die Frau geboren wird,
1:30:19–1:30:22
wurde das halt alles schon vorgegeben. Und das fand ich halt irgendwie irre, wie.
1:30:23–1:30:29
Wie viele Sicherheitsnetze und wie viel vorausschauende Planung so im Leben einfach drin ist.
Florian Clauß
1:30:29–1:30:36
Ja, genau. Ich war extrem inspiriert von dem Vortrag von Herrn von.
1:30:36–1:30:40
Auch von den Interviews fand ich irgendwie. So was wollte ich jetzt gerne nochmal
1:30:40–1:30:43
so in dem Kontext teilen, weil das wirklich so nochmal dieses,
1:30:43–1:30:50
biologische Modell gegen dieses Machine Learning und ein ein Abschluss den oder,
1:30:50–1:30:54
ein Satz den Michael Lewin, den ich zum Abschluss immer so bringen kann ist halt,
1:30:55–1:31:00
dass quasi Evolution jetzt nicht auf Probleme reagiert hat, sondern dass Evolution
1:31:00–1:31:02
quasi Problemlöser entwickelt hat.
1:31:03–1:31:08
Also das ist genau dieses. Also es gibt nicht irgendwie, was reaktiv ist,
1:31:08–1:31:12
sondern Leben ist halt da und will halt was machen, wo ist das Problem,
1:31:12–1:31:14
wo ist das Problem, wo ist das Problem.
1:31:15–1:31:20
Und das finde ich halt irgendwie so, dieses Extreme, also dieses Rausgehen und,
1:31:20–1:31:26
und das dann halt auch entsprechend ins Doing umzusetzen und dann halt wieder
1:31:26–1:31:28
so sein Ziel dabei erfüllt.

Mehr

"Als verkündet wurde, daß die Bibliothek alle Bücher umfasse, war der erste Eindruck ein überwältigendes Glücksgefühl." - Jorge Luis Borges (Die Bibliothek von Babel)

Wir nähern uns verspielt dem komplexen Thema Künstliche Intelligenz. Jorge Luis Borges' Kurzgeschichte "Die Bibliothek von Babel" aus dem Jahr 1941 dient als Wippe von Zufall und Sinn. Ted Chiangs "Catching crumbs from the table" aus dem Jahr 2000 als Seilbahn mit der die Menschheit von ihrer eigenen KI abgehängt wird. Natürlich reden wir kurz über Filme (Terminator, War Games, Dark Star, A.I.) und zufälligerweise über William Gibsons "Mona Lisa Overdrive". So bringen wir uns in die richtige Schwingung, um die Quantenvibrationen in unseren Mikrotubuli zu spüren, die uns -- so eine Hypothese des Nobelpreisträger Sir Roger Penrose -- mit dem Bewusstsein des Universums verbinden könnte.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:04–0:00:05
Warum wolltest du nicht unbedingt hierher?
Florian Clauß
0:00:07–0:00:15
Weil ich auf der einen Seite dachte Das ist ein ganz guter Ort zwischen uns.
0:00:16–0:00:22
Und auf der anderen Seite ist es so ein Teil, den wir noch nicht irgendwie begangen
0:00:22–0:00:26
haben, weil wir häufig unsere Strecken kreuzen.
0:00:27–0:00:35
Und auf der dritten wollte ich noch mal so ein bisschen anknüpfen an all die
0:00:35–0:00:41
Siedlungsgeschichten von Berlin und hier durch die Taut Siedlung gehen.
0:00:41–0:00:47
Hallo und herzlich willkommen bei eigentlich Podcast Folge 19.
0:00:48–0:00:56
Heute bringt uns Mitch eine Geschichte mit und wir knüpfen auch wieder an an die Episode davor.
0:00:56–0:01:04
Es wird um künstliche Intelligenz gehen und ich übergebe dir das Wort Mitch,
0:01:04–0:01:05
weil du willst sicher noch,
0:01:06–0:01:08
ein paar Worte verlieren zu der
0:01:08–0:01:13
vorherigen Folge und wie die jetzt in Beziehung zu dieser Folge stehen.
0:01:14–0:01:20
Vielleicht noch nachtragen, um zu sagen, dass wir jetzt eine 4teilige Serie
0:01:20–0:01:25
über künstliche Intelligenz angelegt haben.
0:01:25–0:01:29
Also heute der zweite Teil und es folgen dann zwei weitere Teile.
0:01:29–0:01:33
Aber erst mal viel Spaß mit dieser Episode.
Micz Flor
0:01:34–0:01:38
Es klingt so, als ob ich jetzt einen Vortrag halte, aber ich hoffe das Gegenteil.
0:01:38–0:01:42
Ich habe ehrlich gesagt dieses Mal ein bisschen das Seminar mäßig vorbereitet.
0:01:42–0:01:43
Mit Gruppenarbeit also.
Florian Clauß
0:01:43–0:01:45
Ja, Ich bin Gruppe A.
Micz Flor
0:01:44–0:01:49
Aber ja, ich sage, du bist dick. Wir sind dann die Gruppe. Ich ermutige dich.
0:01:51–0:01:56
Die letzte Folge, die hat es dann doch in den Podcast geschafft.
0:01:56–0:02:00
Zuerst dachte ich Oh, das geht gar nicht. Ich hatte mir eine Rippe gebrochen.
0:02:00–0:02:03
Flo hat mich an dem gleichen Abend noch ins Krankenhaus gefahren.
0:02:03–0:02:07
Das war mir gar nicht klar, dass sie gebrochen ist. Ich hatte bloß unglaubliche
0:02:07–0:02:14
Schmerzen, immer wieder mal und konnte mich auch nicht so frei bewegen und hatte Luftnot.
0:02:17–0:02:20
Das ist jetzt alles wieder besser. Ich fühle mich irgendwie sehr präsent.
0:02:21–0:02:23
Und habe dann aber entschieden, die Folge doch reinzunehmen.
0:02:23–0:02:27
Und dann wurde aus dieser einen künstlichen Intelligenz Folge jetzt irgendwie ein Vierteiler.
0:02:27–0:02:32
Als wir drüber gesprochen haben und das letzte war zuerst eben so ein Scheitern.
0:02:32–0:02:36
Und während ich mir das dann so angehört habe, habe ich gesagt Nee, irgendwie.
0:02:36–0:02:41
Gerade wenn ich auf diesen Komplex von Maschinenlernen, künstliche Intelligenz und.
0:02:44–0:02:50
Ja, wie soll ich sagen. Auch so Hybridmodelle zwischen Algorithmen basierten
0:02:50–0:02:52
und Deep Learning Modellen.
0:02:53–0:02:56
Wenn ich darüber nachdenke, dann ist dieses Thema Liebe immer was? Was?
0:02:58–0:03:04
Was mir so dazukommt. Also das ist dann, ich bin ja Psychologe, Psychotherapeut,
0:03:06–0:03:09
und vor dem Hintergrund habe ich halt oft dieses Gefühl, dass gerade die Entwicklung,
0:03:10–0:03:13
innerhalb der Biografie, gerade auch der frühen Kindheit, das ist irgendwie,
0:03:13–0:03:19
alles nicht wirklich ein Faktor ist, Wenn man über Lernen spricht,
0:03:19–0:03:24
da vielleicht dann sogar in der Weise, welche Folge du hast.
0:03:24–0:03:28
20 Ich habe dann 21 in der Folge 21 mehr. Da möchte ich über die Entwicklung
0:03:28–0:03:30
des Selbst als Simulation sprechen,
0:03:32–0:03:35
und deshalb ist aber die letzte Folge dann so drin geblieben,
0:03:35–0:03:40
weil ich fand es einfach sehr deutlich, wie sehr der Körper einen Einfluss hat
0:03:40–0:03:41
auf kognitive Prozesse.
0:03:42–0:03:47
Und man muss dazu wissen, dass ich In dem Moment, wo ich diese Folge vorgetragen
0:03:47–0:03:51
habe, war ich irgendwie der Meinung, dass das schon alles irgendwie so ganz gut ist.
Florian Clauß
0:03:53–0:03:57
Es war. Ich meine es. Ich. Es war auch gut. Ich habe mich. Ich habe es dann
0:03:57–0:03:59
auch nochmal angehört im Nachhinein.
0:03:59–0:04:02
Und ich finde, wir haben da schon so ein paar grundlegende Sachen,
0:04:02–0:04:05
die wir gibt neuronale Netze.
Micz Flor
0:04:06–0:04:10
Ich glaube, ein großes Thema ist diese Frage. Nach Motivation. Nach.
0:04:12–0:04:16
Nach Voraussagen, die man so macht, die man fällt. Hypothesenbildung usw..
0:04:17–0:04:24
Und ich war einfach so in meinem Körper und Schmerz eingesperrt,
0:04:24–0:04:26
dass ich mich zwar normal fühlte,
0:04:27–0:04:31
aber das war ein relatives Gefühl in diesem Raum, in dem ich da war.
0:04:32–0:04:34
In meinem Leib war ich irgendwie nicht.
0:04:35–0:04:39
Frei genug. Wirklich fand ich andere Leute mitzureißen und ich fand es auch
0:04:39–0:04:43
echt interessant, wie du auch immer so geknickt wurdest und am Ende dann sagt,
0:04:43–0:04:45
Ich fahr dich jetzt ins Krankenhaus.
0:04:45–0:04:48
Das ist ja nicht unbedingt das Ende, was man sich so wünscht.
0:04:49–0:04:52
Ja gut, dann hatten wir auf einmal diese Idee mit einem Vierteiler.
0:04:54–0:04:57
Dann hatte ich nochmal so ein bisschen auf einmal gemerkt, ich möchte mich vielleicht
0:04:57–0:05:00
sogar ein bisschen darstellen, Warum, warum ich das interessiert und beschäftigt.
0:05:00–0:05:04
Ich habe gerade schon gesagt, ich bin ein Psychologe und Psychotherapeut.
0:05:04–0:05:09
Ich habe also auch Psychologie studiert und inzwischen schon über 25 Jahre her.
0:05:09–0:05:16
Aber noch keine 30 Jahre habe ich auch als studentische Hilfskraft bei den Kognitionswissenschaften,
0:05:18–0:05:24
sogar in Lisp programmiert. Ich habe die Sachen aber nicht mehr gefunden.
Florian Clauß
0:05:21–0:05:25
Ach, echt? Das hatten wir schon. Das hast du mir vorgehalten.
Micz Flor
0:05:25–0:05:35
Und die Idee damals war, ein System zu simulieren oder so eine Art Proof of Concept herzustellen.
0:05:36–0:05:42
Stell dir vor, acht acht Pixel, damals beim C64 oder Sinclair ZX Spectrum war
0:05:42–0:05:45
das quasi die Größe, in der alle Buchstaben abgebildet wurden.
Florian Clauß
0:05:45–0:05:53
Ja, es war ein Spike. Ich glaube, wenn wir damals beim Ich war das ist das so spricht. Sorry.
Micz Flor
0:05:47–0:05:48
Es X Bright.
0:05:54–0:05:57
Und damals war meine Aufgabe und ich habe es auch sehr genossen,
0:05:57–0:06:01
habe das sogar im Sinclair ZX Spectrum noch mal in Basic nachgebaut.
0:06:01–0:06:05
Wenn du dir vorstellst, dass ein Raster von 8,8 und du bildest da Buchstaben
0:06:05–0:06:09
drauf ab, dann kannst du ja verschiedene Quadrate auf diesem Blatt.
0:06:10–0:06:16
Kannst du sagen, wenn da wirklich was erkennbar ist, dann muss das quasi entweder
0:06:16–0:06:18
Buchstabe A oder irgendwas sein.
Florian Clauß
0:06:19–0:06:25
Okay, es gibt quasi schon so ein Muster, was dann halt so ein Matching Score
0:06:25–0:06:31
hat. Und wenn das quasi über rechte, das ober rechte Quadrat dann gefüllt ist,
0:06:31–0:06:34
dann kann es kein n sein, sondern es ist vielleicht ein Haar.
Micz Flor
0:06:34–0:06:37
Ja, oder wenn es eben nicht gefüllt ist. Wenn man sich zum Beispiel einen Tee
0:06:37–0:06:38
vorstellt, dann ist oben die erste
0:06:38–0:06:42
Reihe komplett schwarz und in der Mitte irgendwie auch schwarz runter.
0:06:42–0:06:47
Das heißt, wenn ganz unten links weiß ist, 100 % weiß, dann kann es kaum ein
0:06:47–0:06:51
Tee sein. Wenn es schwarz ist, dann könnte es zum Beispiel ein Haar oder ein
0:06:51–0:06:52
A oder andere Sachen sein.
0:06:52–0:06:57
Und dann haben wir halt bestimmte Bereiche, haben halt bestimmte Gewichte.
0:06:57–0:07:01
Das heißt, du kannst dann, manche sind aussagekräftiger als andere und so kannst,
0:07:01–0:07:04
dir vorstellen, dass man da diese Gewichte verrechnen kann und dann kann man
0:07:04–0:07:08
so Wahrscheinlichkeiten aufstellen. Wahrscheinlich ist es zu 98 % ein Haar.
0:07:09–0:07:11
Vielleicht ist es aber auch ein A usw.
0:07:12–0:07:17
Und das ist so der frühe Anfang. Und es gab damals natürlich auch schon neuronale
0:07:17–0:07:21
Ideen und so, aber es gab viel wie das, was ich beschrieben habe,
0:07:21–0:07:25
der Versuch, dass man als erstes das löst, das Problem,
0:07:26–0:07:31
und dann versucht ein Programm zu bauen, was aufgrund dieser mentalen Leistung
0:07:31–0:07:35
des Lösens des Menschen dann bestimmte Wahrscheinlichkeiten runterrechnet.
0:07:36–0:07:39
In diesem Beispiel kann ich natürlich dann immer mal gucken,
0:07:40–0:07:45
meine Kamera, wie genau erkennt ihr die Buchstaben und kann das dann matchen
0:07:45–0:07:46
mit meinen Gewichten und kann das optimieren?
0:07:47–0:07:51
Ich kann da vielleicht sogar eine Schleife einbauen, dass die Software selber checkt, was besser ist.
0:07:51–0:07:57
Das wäre dann schon fast so eine Lernaufgabe. Das wär dann die Rückmeldung.
0:07:58–0:08:00
Also super Learning. Das habe ich letztes Mal erklärt.
0:08:02–0:08:07
Und es war aber immer noch damals oft so und es ist auch heute bei vielen Sachen,
0:08:07–0:08:09
so es gibt einen Algorithmus, es gibt eine Lösung.
0:08:10–0:08:15
Und heute bei diesen Deep Learning assoziativen neuronalen Netzen,
0:08:16–0:08:22
da ist es halt oft so, dass es von oben erst mal keinen Algorithmus drauf gibt, sondern,
0:08:23–0:08:30
das System wird bereitgestellt und fühlt sich dann war schön hier und fühlt
0:08:30–0:08:31
sich dann von ganz alleine mit,
0:08:32–0:08:35
Verbindung, Vernetzung und ist dann immer besser in der Lage,
0:08:35–0:08:39
auch bestimmte Dinge zu erkennen. Punkt. Da mach ich jetzt mal eine Klammer zu.
Florian Clauß
0:08:39–0:08:47
Vielleicht mal in kurzer Zeit. Wir sind ja, wir reden beim Laufen und im Laufen sozusagen.
Micz Flor
0:08:45–0:08:47
Im Laufen laufen.
Florian Clauß
0:08:48–0:08:53
Und wir gehen auch hier so bestimmte Trades durch Berlin ab.
0:08:53–0:08:57
Und wie schon gesagt, wir sind hier in der Bruno Taut Hufeisensiedlung.
0:08:57–0:09:05
Sieht man dann später bei unserem Track auf Komoot und wir finden auch ein paar
0:09:05–0:09:07
Bilder zu der Hufeisensiedlung, die wir gemacht haben.
0:09:08–0:09:14
Wollte ich immer so als kleinen Sidekick. Alles unter eigentlich Podcast D Kann
0:09:14–0:09:18
man sich die Tracks runterladen und nochmal anschauen auf kommod.
0:09:18–0:09:19
Aber hier ist es auch wirklich.
0:09:20–0:09:24
Ich finde es so ein bisschen, wenn man das ich will nicht zu lange auswalzen,
0:09:24–0:09:29
aber so ein bisschen so zur Waldsiedlung hat man so ein ähnliches heimeliges.
Micz Flor
0:09:28–0:09:34
Hey, da müsste die Peter Behrens die mit dem Bärenfell über dir Auf jeden Fall. Es ist.
Florian Clauß
0:09:29–0:09:30
Gefühl, aber unheimlich.
Micz Flor
0:09:35–0:09:39
Es ist sehr ähnlich ihr allerdings noch hat man so ein bisschen das Gefühl,
0:09:39–0:09:44
dass Architektinnen dazu neigen, manchmal den Blick von oben zu machen.
0:09:44–0:09:48
Also hier hatte ich mehr das Gefühl, das ist auf dem Reißbrett entstanden, bei Behrens Was?
0:09:48–0:09:51
Ja, total schön, diese leichten, mäandernden Fronten.
Florian Clauß
0:09:51–0:09:55
Ja, also ich meine, das gehört auch nicht zum Kern der Tauziehen.
0:09:55–0:09:58
Das ist der Kern ad hoc, genau nachher durch die Tauziehung.
0:09:58–0:10:01
Und kommen wir den Taut Autos vorbei. Was ich auch.
Micz Flor
0:10:00–0:10:03
Und das hat auch die taz und das war doch was, was ich da auch angesprochen
0:10:03–0:10:08
hatte, wo wir die diesen Wasser Boiler da geholt hatten den.
Florian Clauß
0:10:07–0:10:14
Genau. Genau das haben wir hier geholt. Wir gehen quasi die die ganzen Laufwege
0:10:14–0:10:18
unserer Haushaltsgeräte ab. Waschmaschine?
Micz Flor
0:10:18–0:10:23
Also eben waren wir noch in den 90er Jahren mit Lisp und dann waren wir in den
0:10:23–0:10:26
Nullerjahren mit der Tauschsiedlung.
0:10:27–0:10:34
Gut, ich habe ja schon gesagt, dass es so ein bisschen seminarmäßig vorbereitet habe und,
0:10:35–0:10:39
habe mir dann überlegt, ich weiß nicht, wie es dir geht, aber dieses Es ist,
0:10:39–0:10:43
total spannendes Thema, aber auch so ein mächtiges Thema, wo ich total schüchtern
0:10:43–0:10:47
werde und denke, hoffentlich hört das keiner und gleichzeitig möchte ich so viel dazu sagen.
Florian Clauß
0:10:46–0:10:52
Aber kannst du das Thema noch mal so quasi in einem Satz zusammenfassen?
Micz Flor
0:10:52–0:10:55
Ja, also ich weiß noch nicht, wie die Folge heißen wird, aber was ich machen
0:10:55–0:11:00
möchte, ich möchte eher so ein bisschen Gedankenspiele machen, um.
0:11:02–0:11:07
Hintenrum so ein bisschen Grenzen aufzuzeigen oder über seine Gedankenspiele
0:11:07–0:11:10
so interessante Fragen herauszufinden.
0:11:10–0:11:19
Ähm, wo mögliche Grenzen von einem sehr programmiertechnischen Denken her sein könnten.
0:11:20–0:11:23
Also natürlich ist eine ganz große Grenze, die werden wir überhaupt nicht besprechen.
0:11:23–0:11:27
Ist Energieeffizienz also diese immer größer werdenden?
0:11:27–0:11:32
Also Dali II ist ja ein Riesending und macht super geile Ergebnisse und lustig und viel Spaß.
0:11:32–0:11:37
Aber es ist halt so einfach energiemäßig, jenseits von allem,
0:11:37–0:11:39
was unser Gehirn so irgendwie kann.
0:11:39–0:11:43
Und irgendwie ist das Gehirn ja so ein so ein Richtwert, wo man scheinbar hin
0:11:43–0:11:46
will. Auch das ist ein eigenes Thema. Für meine nächste Frage,
0:11:46–0:11:49
also diese menschliche Blick auf alles, was wir da gerade erforschen.
Florian Clauß
0:11:48–0:11:54
Ich werde es auch aufgreifen. Hier wird viel über bio bioelektrische Systeme reden.
Micz Flor
0:11:50–0:11:52
Ja, okay, das ist auch cool.
0:11:54–0:11:58
Da bin ich gespannt. Also jetzt geht es mir dann eher so ein bisschen darum,
0:11:58–0:12:00
damit zu spielen, dass wir die jetzt mal angehen.
0:12:00–0:12:05
Und das erste, was ich jetzt als in meiner kleinen Seminarübung bereit habe,
0:12:05–0:12:12
würde ich es von Jorge Luis Borges eine Kurzgeschichte, die heißt Die Bibliothek von Babel.
Florian Clauß
0:12:12–0:12:20
Ah ja, die kenne ich ja. Er wird sie vorlesen, nicht?
Micz Flor
0:12:12–0:12:16
Ich weiß nicht, ob du die kennst von 1941.
0:12:18–0:12:22
Borges ist ein. Ich habe so ein. Nein, ich glaube, das ist nämlich gar nicht
0:12:22–0:12:24
so hilfreich, weil da kommen wir gleich auf.
Florian Clauß
0:12:23–0:12:25
Okay, Wir können jetzt über die Fragen Sie.
Micz Flor
0:12:26–0:12:29
Ja, und die Zusammenfassung ist bestimmt auch gut.
0:12:31–0:12:39
Also, der argentinische Schriftsteller und Bibliothekar veröffentlichte 1941 eine Kurzgeschichte.
0:12:39–0:12:45
Und diese Kurzgeschichte ist einfach mal so Es gibt in der ich,
0:12:45–0:12:49
wie ich sie jetzt quasi aufbaue, als Gedankenspiel.
0:12:49–0:12:52
Es gibt, sagen wir mal, ein Fest umschrieben, eine Größe von einem Buch,
0:12:52–0:12:57
sagen wir 100 Seiten mit 80 Zeilen und jede Zeile hat 80 Zeichen.
0:12:59–0:13:04
Und dann kann man ja rein theoretisch iterativ das durchlaufen lassen und könnte
0:13:04–0:13:13
quasi alle möglichen Buchstabenfolgen, die es gibt, in ein Buch dieses Ausmaßes hineintun.
0:13:13–0:13:15
Wir können es auch verkürzen, ich kann sagen nur zehn Seiten.
0:13:16–0:13:17
Das sind dann wahrscheinlich keine.
0:13:17–0:13:22
Natürlich keine Romane mehr, aber Kurzgeschichten oder Papers oder sonst was.
0:13:23–0:13:28
Und und diese Bibliothek, die ist genau so etwas.
0:13:28–0:13:31
Die hat dann noch so ein architektonisches Spiel drum herum,
0:13:31–0:13:34
wo auch viel reingedeutet wurde in den Text. Aber das brauchen wir jetzt nicht,
0:13:35–0:13:38
sondern wir beschäftigen uns einfach mit diesen Büchern.
0:13:38–0:13:42
Da gibt es unendlich viele Bücher. Nein, es gibt endliche Bücher,
0:13:42–0:13:46
weil wir wissen ja, wie viele Zeichen im Alphabet sind und wir wissen,
0:13:46–0:13:50
wie viel Zeichen so ein Buch kommen, wenn wir es denn mal ausrechnen.
0:13:50–0:13:52
Wahrscheinlich gefühlt unendlich viele.
0:13:53–0:13:57
Aber wenn man dieses Gedankenspiel und dann kannst du irgendwann einsteigen,
0:13:57–0:14:00
ich fang schon mal an, wenn man dann in dieser Geschichte so rein liest,
0:14:00–0:14:03
dann ist es halt so ganz interessant, weil die Bibliothekare,
0:14:04–0:14:08
die sind mit dieser Bücherei irgendwie konfrontiert und versuchen die zu sortieren.
Florian Clauß
0:14:09–0:14:12
Ich habe es jetzt noch nicht ganz verstanden. Was? Was? Es gibt eine.
Micz Flor
0:14:12–0:14:17
Diese Bibliothek ist voller Bücher. Und jetzt einfach Ich reduziere es mal ein
0:14:17–0:14:20
bisschen. Wir sagen mal, jedes Buch hat 20 Seiten.
0:14:22–0:14:25
80 Zeilen und 80 Zeichen pro Zeile.
Florian Clauß
0:14:25–0:14:28
Es ist völlig randomisiert. Oder ist das.
Micz Flor
0:14:28–0:14:33
Und in dieser Bücherei sind alle möglichen Zeichen kombiniert zu hören drin.
Florian Clauß
0:14:31–0:14:33
Okay. Okay. Verstehe. Jetzt.
Micz Flor
0:14:33–0:14:39
Das heißt, man weiß sofort unglaublich viel davon ist einfach Bullshit.
0:14:39–0:14:42
Macht erst mal auf den ersten Blick überhaupt gar keinen Sinn.
0:14:43–0:14:49
Und dann ist es so, dass in diesen Büchern dann ist man fast 1/3 dieses.
0:14:49–0:14:50
Diese Bibliothek ist verbrannt.
0:14:51–0:14:56
Das heißt 1/3 aller Bücher weg. Aber die Bibliothekare waren gar nicht so alarmiert
0:14:56–0:14:59
deswegen, weil es gab eigentlich ja immer noch fast alles.
0:14:59–0:15:04
Da gab es die gleichen Geschichten, gab es immer noch in 100000 facher Ausfertigung
0:15:04–0:15:07
mit mit Rechtschreibefehlern, aber man konnte sie immer noch lesen.
0:15:07–0:15:17
Es gibt ganz viele Texte, die sind, ähm, die sind falsch geschrieben und sind
0:15:17–0:15:20
einfach schlecht redigierte Versionen von besseren Texten.
0:15:20–0:15:25
Es gibt Kurzgeschichten, wo es ums Gleiche geht. Manche erzählen die Geschichte besser als andere.
0:15:25–0:15:31
Es gibt aber auch zum Beispiel genau ein Buch, in dem nur Leerzeichen drin sind. Da ist gar nichts drin.
0:15:32–0:15:36
Und genau ein Buch, das nur den Buchstaben A auf der ersten Seite genau in der Mitte hat.
0:15:37–0:15:41
Aber es gibt ziemlich viele Bücher, in denen nur der Buchstabe A drin ist.
0:15:43–0:15:46
Das heißt, du merkst, wie man so anfängt, da so hineinzu denken.
0:15:47–0:15:49
Dann kriegt man so ein ganz komisches Gefühl.
0:15:49–0:15:52
Erst mal auf einer formalen Ebene von Redundanz.
0:15:52–0:15:58
Das heißt, ganz viele Bücher braucht es nicht. Und da sind wir zum Beispiel bei diesem Zyptding.
0:15:58–0:16:01
Man kann dann, man kriegt immer wieder eine neue Rückmeldung.
0:16:02–0:16:04
Du stellst die gleiche Frage und du kriegst einen neuen Text,
0:16:04–0:16:06
das gleiche nochmal macht.
0:16:07–0:16:09
Und das ist irgendwie in dieser Bibliothek auch schon angelegt.
0:16:10–0:16:15
In dieser Kurzgeschichte wird dann auch kurz gesagt, dass es ganz viele wissenschaftliche
0:16:15–0:16:17
Abhandlungen darin auch gibt.
0:16:18–0:16:21
Und zwar gibt es welche, die richtig sind und welche, die falsch sind.
0:16:22–0:16:25
Es gibt ganz viele alte religiöse Texte, die man gar nicht kannte,
0:16:25–0:16:29
von dem man aber auch natürlich nicht weiß, ob die irgendwie echt sind.
0:16:29–0:16:31
Aber dann müssen sie da sein, sonst wären sie ja nicht in dieser Bibliothek drin.
0:16:32–0:16:38
Es gibt Widerlegungen von Dingen, die jahrhundertelang geglaubt wurden,
0:16:39–0:16:41
die dann wissenschaftlich widerlegt wurden.
0:16:42–0:16:46
Es gibt ganz viele Lügen, ganz viele Wahrheiten. Also dieses,
0:16:46–0:16:52
dieses, diese Bibliothek ist voller Dinge, vor allen Dingen.
0:16:52–0:16:56
Und das ist das Verrückte daran. Auch alle zukünftigen Erfindungen.
0:16:57–0:17:01
Die wir eigentlich jetzt noch gar nicht verstehen könnten, sind da schon drin.
0:17:01–0:17:05
Du kannst also auch in die Zukunft gucken, aber wir werden es vielleicht nicht verstehen.
Florian Clauß
0:17:06–0:17:11
Okay. Darf ich nochmal mal so kurz zusammenfassen, wie ich es verstanden habe?
0:17:11–0:17:16
Dadurch, dass jetzt alle möglichen Zeichen Kombinationen in dieser Bibliothek
0:17:16–0:17:21
abgebildet sind in Form von Büchern, gibt es halt genau diese ganzen potenziellen
0:17:21–0:17:25
Entdeckungen oder Geschichten oder was auch immer die du gerade beschrieben hast.
0:17:27–0:17:30
Ähm, anders gesagt ist.
0:17:31–0:17:34
Ähm. Dadurch, dass es so eine immens hohe Zahl ist.
0:17:34–0:17:40
Das heißt im Moment hohe Zahl an nicht sinnhaften, Sinnvollen.
0:17:41–0:17:45
Es ist ja. Also da bist du dann halt auch zu einer Kurzgeschichte mit Rechtschreibfehlern kommst.
0:17:46–0:17:50
Bist du ja schon in einem. In einer Potenz, die ja verschwindend ist.
0:17:50–0:17:54
Also es ist ja eher die Frage, wie sind die Gänge in dieser Bibliothek?
Micz Flor
0:17:55–0:17:59
Ja, das ist auch so ein Thema. Es gibt eben so einen architektonischen Teil,
0:18:00–0:18:05
der da auch beschrieben ist, wie sich quasi die Bibliothekare und die Bücher
0:18:05–0:18:06
in diesen Räumen sortieren.
Florian Clauß
0:18:06–0:18:12
Also, dass du wirklich zu sinnvollen Schriften kommst überhaupt.
0:18:12–0:18:18
Also erst wenn ich diesen ganzen sinnlosen Kram weg in irgendeiner irgendwelche
0:18:18–0:18:20
anderen Räume wegsortiert.
Micz Flor
0:18:19–0:18:24
Ja, und das ist genau die Urfrage der Bibliothekare. Das müssen die selber rausfinden.
0:18:24–0:18:29
Die versuchen irgendwie ein System zu bewegen, ihre Aufgabe sinnvoll zu sortieren.
Florian Clauß
0:18:27–0:18:29
Okay. Das ist gelöst.
Micz Flor
0:18:29–0:18:32
Das ist nicht gelöst, Da sind die irgendwie dran, weil die wissen auch bei manchen.
Florian Clauß
0:18:31–0:18:34
Okay, aber das ist jetzt nicht die, dass es jetzt darum geht,
0:18:34–0:18:38
nicht bei diesem Gedankenexperiment, sondern wir haben schon so ein Substrat
0:18:38–0:18:41
von sinnvollen Schriften, wie auch immer und haben.
Micz Flor
0:18:41–0:18:43
Ja Nein. Wir können das aber auch so ein bisschen ausweiten.
0:18:43–0:18:49
Ich glaube, das Interessante ist ja auch wenn wir jetzt diese diese Tür zu JLPT
0:18:49–0:18:56
zum Beispiel öffnen, ist ja diese, diese Gefahr von Texten, die plausibel erscheinen.
0:18:57–0:19:00
Also das ist ja dann, da öffnet sich ja dann alles Mögliche,
0:19:00–0:19:05
wie ich vorhin meinte, in dem in den Texten, wo Dinge bewiesen werden,
0:19:05–0:19:10
Dinge erlogen werden, glaubhaft Dinge dargestellt werden, dann erst später widerlegt werden,
0:19:12–0:19:14
dass das alles möglich ist.
0:19:15–0:19:19
Das ist ja in gewisser Weise das, was wir mit Katie Petit gerade so erleben.
0:19:19–0:19:21
Also dass man das Gefühl hat, dass so eine.
0:19:23–0:19:26
Das ist im Prinzip wie eine komische Riesenbibliothek. Und jedes Mal,
0:19:26–0:19:32
wenn ich da noch mal Redurido klicke, dann kriege ich ein neues Buch aus dieser Bibliothek.
Florian Clauß
0:19:28–0:19:28
Er.
0:19:32–0:19:36
Ja, das fand ich von dir auch sehr gut in der letzten Folge beschrieben,
0:19:36–0:19:39
obwohl da dieser Druck auf deinen Rippen war.
0:19:40–0:19:46
Aber diese, diese Vehemenz, die Kreativität dann mit diesem Ich aber weiß es
0:19:46–0:19:50
ganz genau und ich sagte dir das jetzt wie es ist. Ja, also das finde ich halt
0:19:50–0:19:54
irgendwie, ja, ich habe dann auch mal ein bisschen mit dem Rum gespielt oder mit der wie auch immer.
0:19:55–0:20:00
Und hatte dann auch immer das Gefühl, der weiß genau Bescheid.
Micz Flor
0:20:00–0:20:05
Ja, ja, das ist wirklich. Ich glaube, das war so der Neuntklässler,
0:20:05–0:20:08
der versucht, obwohl er nicht gelernt hat, irgendwie nicht durchzufallen und
0:20:08–0:20:12
denkt, wenn ich irgendwas sage, können mich nicht durchfallen lassen. So kommt einem das vor.
Florian Clauß
0:20:12–0:20:20
Und ich. Ja, hier ist es natürlich auch die Frage, ob das jetzt von den Entwicklern so als so als.
0:20:20–0:20:24
Ja, wir müssen halt gegen die Welt antreten und egal was kommt,
0:20:24–0:20:29
egal welcher Eiswind ihr ins Gesicht weht, muss immer diese Tonalität haben,
0:20:29–0:20:31
dass es halt extrem richtig ist, was du sagst.
Micz Flor
0:20:31–0:20:31
Wir.
Florian Clauß
0:20:32–0:20:34
Ich glaube das ist echt so, so ein BIOS von dem Ding.
Micz Flor
0:20:35–0:20:38
Ja, das ist. Das hatte ich. Ich weiß ehrlich gesagt gar nicht mehr genau,
0:20:38–0:20:42
aber diese. Diesen Bias mit den langen Antworten. Lange Sätze hatte ich den,
0:20:42–0:20:43
erzählt in der letzten Folge.
0:20:43–0:20:49
Denn es gibt von auf Openai. Auf der Webseite gibt es zu der Entwicklung des
0:20:49–0:20:56
Ganzen auch in einem Text diese Meldung, wo das irgendwie noch mal mitgeteilt wird,
0:20:56–0:21:00
dass die Antworten wurden halt geratet.
0:21:00–0:21:05
Das waren Leute, dass so menschliche Hirne, die gelesen und geredet haben und
0:21:05–0:21:08
das war eine Form von Feedback für die für diesen Lernprozess.
0:21:09–0:21:15
Und weil die also die Antworten, die die Sätze, die das gleiche sagten,
0:21:15–0:21:19
aber länger waren, wurden höher geratet als die, die kürzer waren.
0:21:19–0:21:20
Es gab so einen Bias für lange Sätze.
0:21:21–0:21:25
Das fand ich ganz interessant, dass man da dann, wie du schon sagst,
0:21:25–0:21:28
Bias einbauen kann, einfach in der Rückmeldung.
0:21:28–0:21:32
Und das heißt zum Beispiel in Psychologie heißt, dass der Rosenthal Effekt der,
0:21:32–0:21:36
das habe ich glaube ich auch schon mal erzählt, dass wenn du Forschern bestimmte
0:21:36–0:21:39
Mäuse gibst die halt im Labor dass er jetzt ja.
Florian Clauß
0:21:37–0:21:41
Ja, das ist sehr faszinierend. Wenn.
Micz Flor
0:21:40–0:21:45
Und das ist genau das gleiche wenn du äh ei trainierst also wenn du nur daran,
0:21:45–0:21:52
also du bist als als Forscher oder Beobachter, bist du irgendwie involviert
0:21:52–0:21:54
und hast einen Einfluss auf dieses ganze.
0:21:56–0:22:02
Ganze System. Was ich halt bei dem ZCPT interessant finde, wenn man es als Vergleich mit diesem.
0:22:02–0:22:07
Mit dieser Buches Geschichte ist halt das zukünftige und das finde ich so einen
0:22:07–0:22:10
ganz wichtigen, ganz wichtigen Punkt.
0:22:10–0:22:17
Und zwar wir haben jetzt ja das steht ja auch drin, ich glaube bis 2020 Texte
0:22:17–0:22:23
bis zu 21 wurden halt gelesen. So alles was danach war, das kann ja chipt nicht gut einordnen.
0:22:23–0:22:31
Das heißt, du wirst dort nicht zukünftige Erfindungen oder Worte oder es wird
0:22:31–0:22:34
halt nichts in der in der Bibliothek von Woche.
0:22:34–0:22:38
Da stehen ja auch Sachen drin, die erst in 2000 Jahren wahr sein werden.
0:22:39–0:22:43
Aber bei ZTP kommt so was irgendwie nicht raus.
0:22:43–0:22:48
Der Blick ist schon eher so nach hinten gewandt und ebenso leicht anbiedernd und bestimmt.
0:22:48–0:22:56
Das heißt, der versucht immer oder die versucht immer oder das Netz versucht immer dich zu bedienen.
0:22:57–0:23:00
Und das finde ich nochmal so einen ganz wichtigen Punkt.
0:23:02–0:23:06
Wenn wir in die Zukunft gucken. Also nicht nur muss man ja diese,
0:23:08–0:23:13
Deep Learning neuronalen Netze immer wieder updaten, immer wieder auch gucken,
0:23:13–0:23:16
ob irgendwelche Beweise drin sind oder nicht, was dann auch irgendwie immer
0:23:16–0:23:17
so eine Art Zeitgeist ist.
0:23:17–0:23:21
Das ist ja im Prinzip eine Diskussion, die man bei Wikipedia auch schon hatte.
0:23:24–0:23:27
Nicht nur, dass Leute bei Wikipedia halt ihre eigenen Biografien gefälscht haben
0:23:27–0:23:30
oder haben fälschen lassen oder auch schön dann lassen usw.
0:23:30–0:23:35
Aber generell welche Artikel kommen da drin vor, welche Themen werden da vorgeschlagen?
0:23:35–0:23:38
Und hier sind wir jetzt gerade in einem kleinen Zoo.
0:23:44–0:23:45
Rechtsschafe.
Florian Clauß
0:23:48–0:23:51
Ja, wir sind hier, Schloss Britz.
0:23:53–0:23:59
Es ist auch ein ganz netter Ausflugsort. Wenn du mal am Wochenende mit der Familie,
0:23:59–0:24:01
Kuchen essen gehen willst, dann hier.
Micz Flor
0:24:01–0:24:05
Weil du. Es ist wirklich wahr. Hier war ich noch nicht.
0:24:06–0:24:10
Sehr schön, was du hier schon mal konntest. Okay, gut.
Florian Clauß
0:24:08–0:24:09
Ja Kuchen ist.
Micz Flor
0:24:11–0:24:15
Genau da sind wir bei dem Motivationsthema. Was Ja auch noch in zukünftigen.
Florian Clauß
0:24:13–0:24:17
Denn genau das ist die Rewards, die Belohnung.
Micz Flor
0:24:15–0:24:16
Folgen wahrscheinlich. Ich mache mir jetzt nur noch.
Florian Clauß
0:24:17–0:24:23
Okay, also wir haben jetzt also dieser Connect zu der Bibliothek.
Micz Flor
0:24:23–0:24:28
Ja, und jetzt der Blick eben immer wieder nach hinten. So, also wir haben ja wir haben.
0:24:29–0:24:36
Ich hatte das heute Morgen eine kurze Fußnote dazu eben dieses leicht deprimierende Gefühl.
0:24:36–0:24:40
Ich saß in einem Cafe, was relativ aufgeräumt war und da lief dann halt so minimal
0:24:40–0:24:45
Electronica, Ambient Music, also Musik, wo man schon immer irgendwie so dachte,
0:24:45–0:24:48
naja, das könnte man wahrscheinlich auch einfach automatisieren,
0:24:48–0:24:49
das blubbert halt so raus im Hintergrund.
0:24:49–0:24:52
Keiner hört wirklich hin, tut einfach so gut.
0:24:53–0:24:57
Und jetzt ist es halt so weit. Es ist halt es gibt von.
0:24:58–0:25:02
Von Google hatte ich es geschickt, also sind es Soundbeispiele,
0:25:02–0:25:04
wo halt wirklich jetzt nicht mehr nur Noten generiert werden,
0:25:04–0:25:05
sondern wirklich Musiker.
0:25:06–0:25:09
Das heißt, wir gucken aber dann bei Sachen immer so nach hinten,
0:25:09–0:25:11
also wir gucken halt immer nach hinten.
0:25:11–0:25:16
Das Spannende an Musik ist ja oft, was kommt vorne raus, was ist die erste Fugazi
0:25:16–0:25:20
Platte oder meinetwegen auch die erste Bob Dylan Platte, meinetwegen auch das
0:25:20–0:25:22
erste Tschaikowsky Stück.
0:25:22–0:25:28
Das sind ja die die Momente, wo man denkt Wow, und wenn du jetzt aber all das
0:25:28–0:25:37
nimmst und das nächste in der Art oder als Melange aus zwei Dingen berechnest, dann.
0:25:38–0:25:43
Fehlt das Neue, was ich meine. Also der Blick ist immer nach hinten gerichtet.
0:25:43–0:25:47
In der Box, also mit allem, mit dem kompletten Möglichkeitsraum und Buchstaben,
0:25:47–0:25:50
ist in der Bibliothek von Borges auch die Zukunft abgebildet.
0:25:50–0:25:54
Es ist alles schon da, aber mit ZTE, BT, was ja gelernt hat,
0:25:55–0:25:57
dann ist immer nur die Vergangenheit da.
0:25:57–0:26:02
Das ist quasi das Neue. Was vorne rauskommt, ist dann eher so eine Form von Mash up.
0:26:03–0:26:08
So wie man das dann auch bei den Daily 2 Witzen in Social Media immer sieht,
0:26:08–0:26:14
wenn man dann hihihi, mach mal Big Bird von Sesamstraße auf dem Mars oder?
Florian Clauß
0:26:14–0:26:18
Aber ich glaube, da kommen wir auch auf so ein, wie soll man sagen,
0:26:18–0:26:24
so ein Designfehler bei diesem ganzen Melt Machine Learning Zeug,
0:26:25–0:26:30
drauf, nämlich dass es halt reaktiv ist.
0:26:30–0:26:33
Das heißt, du brauchst Material, um Ergebnisse zu bekommen.
0:26:34–0:26:37
Also es ist ja nicht aktiv, es wird aktiv in der Interaktion,
0:26:38–0:26:40
aber es ist im Prinzip dieses Ganze.
0:26:40–0:26:46
Dieser ganze Prozess des Lernens ist ja immer mit einem Material,
0:26:46–0:26:47
was quasi vorhanden ist.
0:26:47–0:26:50
Es wird, ja, es kann sich dann auch selber Material erzeugen,
0:26:50–0:26:54
aber es ist ja auch dann wieder nur basierend auf vergangenem Material.
0:26:54–0:26:59
Also ich glaube, das ist so, das ist so auch wieder bei was dann halt da drin ist.
Micz Flor
0:26:59–0:27:00
Ja.
0:27:03–0:27:08
Ja, da mach ich hier mal kurz einen Schnitt. Also, das ist jetzt der erste,
0:27:08–0:27:15
der erstes erste Gedankenexperiment mit möglichen Anknüpfungspunkten zu diesem
0:27:15–0:27:17
Thema Künstliche Intelligenz.
0:27:17–0:27:27
Da ging es jetzt eben um diese, um diese, diesen gefühlt unendlichen Plausibilitätsraum.
0:27:27–0:27:33
Und die Bibliothek von Borges macht alles und deswegen aber auch ganz viel Unverständliches,
0:27:34–0:27:37
macht zum Beispiel auch jeden Roman.
0:27:37–0:27:40
Allerdings sind dann immer die dritte, 4. 05. Seite in Spanisch.
0:27:40–0:27:43
Keiner weiß warum. Also das ist ja quasi alles da.
Florian Clauß
0:27:43–0:27:47
Der älteste Teil, der meint, meint blowing. Ja, das ist so ein bisschen wie.
Micz Flor
0:27:43–0:27:45
Also so denkt ja.
Florian Clauß
0:27:48–0:27:52
Mit diesem, was wir auch Kontext hatten, diese unendlichen Zahlen.
0:27:52–0:27:54
Irgendwann gibt es dann in der.
Micz Flor
0:27:54–0:27:57
Und den Kreis hinten in der Zahl PI. Ja.
Florian Clauß
0:27:55–0:28:00
Na und dann hast du Ja, du hast es. Du hast jedes Muster irgendwie da.
Micz Flor
0:27:59–0:28:00
Ja, genau.
Florian Clauß
0:28:01–0:28:05
Also insofern ist es irgendwie alles vorhanden, immanent.
0:28:06–0:28:09
Aber ich meine, auch das lässt sich ja eigentlich jetzt so berechnen.
0:28:09–0:28:14
Also man könnte man kann ja diese Bibliothek einen Computer so aufbauen, das ist ja kein Problem.
Micz Flor
0:28:14–0:28:18
Ja, ja, da muss man ja immer gucken, wie, wie viel, wie viel Energie und wie
0:28:18–0:28:21
viel Teilchen und das Universum. Dann wird ja mal gerechnet, wie viele mögliche.
Florian Clauß
0:28:21–0:28:25
Aber es gibt tatsächlich schon dieses Projekt, das Musical. Ich wollte es auch
0:28:25–0:28:28
raussuchen, dass du wirklich so einen.
0:28:28–0:28:35
Du hast alle Zeichen Kombination in einen Absatz drin und da steht halt alles
0:28:35–0:28:38
immer einmal drin. Also es gibt schon als Netzprojekt.
Micz Flor
0:28:35–0:28:36
Aber es gibt schon.
0:28:39–0:28:43
Ja, das verlinken wir. Dann musst du mir nochmal zuschieben.
Florian Clauß
0:28:43–0:28:46
Ich habe. Ich habe das für die Kontextfolge versucht zu finden,
0:28:46–0:28:47
aber ich habe es nie gefunden.
Micz Flor
0:28:46–0:28:51
Ach so, da haben wir es nicht gut. Also das ist jetzt dieses eine Ding bei ZP.
0:28:51–0:28:54
Das finde ich halt irgendwie interessant das dagegen zu halten,
0:28:54–0:28:57
weil man wird von zB bestimmt keine Rechtschreibfehler kriegen,
0:28:57–0:28:59
es sei denn man bittet drum.
0:28:59–0:29:03
Und man wird auch natürlich keinen absoluten Buchstabensalat bekommen,
0:29:03–0:29:06
es sei denn, man bittet drum. Vielleicht. Ich weiß nicht, ich habe noch nicht probiert.
0:29:06–0:29:10
Das heißt alles was man da bekommt, ist in sich plausibel. Was natürlich auch
0:29:10–0:29:15
daran liegt, weil das Chateau Petit diese relativ einfache Aufgabe hatte zu
0:29:15–0:29:20
sagen, versuche, das nächste Wort zu erraten, Das ist wohl scheinbar so,
0:29:21–0:29:24
reduziert auf das Wesentliche war war die Aufgabe.
0:29:24–0:29:27
Also es geht durch alle Texte und guck dir das an und dann versucht das nächste
0:29:27–0:29:30
Wort zu erraten und wieder das nächste wie das nächste. Merkt dir,
0:29:30–0:29:35
ob du es richtig hast oder nicht und nutze das als als Verstärker oder als Feedback.
0:29:36–0:29:37
So genau.
Florian Clauß
0:29:38–0:29:42
In einer Bibliothek ist ja quasi alles gleich gewertet gewichtet. Also da gibt es ja.
0:29:42–0:29:46
Also ich meine dieses ganze neuronale Netz usw. die sind ja,
0:29:46–0:29:52
die arbeiten ja nur mit Gewichten, mit gewichteten Funktionen und so entstehen ja diese Verknüpfung.
0:29:53–0:29:56
Also wenn in der Bibliothek bist, dann ist ja erst mal alles gleich.
0:29:56–0:30:00
Es wird ja dann quasi erst in der Benutzung und der Interaktion wird dann halt
0:30:00–0:30:04
irgendwas höher gewichtet, weil es erst mal rezipiert werden muss,
0:30:04–0:30:07
damit es halt irgendwie Sinn ergibt. Und die anderen bleiben nie halt liegen.
0:30:08–0:30:10
Also es ist ja dann eine andere Form.
Micz Flor
0:30:12–0:30:20
Das zweite ist eine Kurzgeschichte von Ted Chiang. Ich weiß nicht genau,
0:30:20–0:30:22
wie es ausspricht, dass es der,
0:30:24–0:30:30
Autor der Kurzgeschichte die Grundlage für das Drehbuch von Arrival war.
0:30:30–0:30:35
Ja, auch ein finde ich ganz toller Film. Da geht es ja auch immer.
0:30:35–0:30:39
Das ist eben auch so einer, der Gedankenexperimente baut.
0:30:39–0:30:42
Es gibt auch eine Kurzgeschichte, um die es aber nicht geht,
0:30:42–0:30:44
die ich aber auch ganz toll finde.
0:30:44–0:30:49
Die heißt The Lifecycle auf Software Objects oder so ähnlich.
0:30:50–0:30:55
Da geht es um in Anführungszeichen, künstliche Intelligenz, um so was im Prinzip wie.
0:30:57–0:31:02
Metaverse von Facebook, wo dann diese künstlichen Intelligenzen sind Haustiere
0:31:02–0:31:07
und so ein Zoologen arbeitet mit denen und es ist total spannend zu gucken,
0:31:07–0:31:12
wie sich dann in so einem Gedankenexperiment Kurzgeschichte das da durchzieht.
0:31:12–0:31:16
Die Geschichte, auf die ich jetzt allerdings verweisen möchte,
0:31:17–0:31:23
ist 2000 in Nature erschienen und die heißt Catching Crumbs from the Table.
0:31:24–0:31:31
Also Brotkrumen vom Tisch sammeln und es ist jetzt über 20 Jahre her.
0:31:31–0:31:34
Aber es geht irgendwie auch um genau das, was wir jetzt so ein bisschen spüren,
0:31:35–0:31:42
nämlich dass ja schon bestimmte Stimmen aus Bildungsapparaten,
0:31:42–0:31:43
auch Prüfungsthemen, so etwas sagen.
0:31:43–0:31:48
Wir können jetzt mit ZPBT gar nicht mehr wirklich so prüfen,
0:31:48–0:31:50
wie wir das immer gemacht haben, weil
0:31:50–0:31:54
es ist einfach nicht mehr leicht zu unterscheiden zwischen dem, was jetzt,
0:31:54–0:31:59
durch irgendeine KI erstellt wurde und dem, was jetzt ein,
0:32:01–0:32:05
Studierender oder auszubildender Auszubildende.
0:32:07–0:32:11
Erstellen kann. So. Und in diesem.
0:32:12–0:32:17
In diesem Artikel. Der geht halt damit los, dass er sagt das ist jetzt 25 Jahre
0:32:17–0:32:23
her, dass das letzte Mal ein Mensch was wirklich originäres erfunden hat und,
0:32:23–0:32:26
ein Paper publiziert hat. Weil.
0:32:28–0:32:34
Es gibt jetzt eben diese ganzen Systeme von Metakognition oder Metahuman,
0:32:34–0:32:35
das heißt, die glaube ich sogar.
0:32:36–0:32:41
Und die machen jetzt die ganze Forschung und machen diese ganzen Paper und die
0:32:41–0:32:44
haben die Menschheit schon längst abgehängt.
0:32:45–0:32:52
Also die, die Erstellung von neuem wissen, vom Paper und von diesen ganzen Wissenswissenschaften,
0:32:52–0:32:58
also Wissenschaft machen nicht mehr Menschen, die rennen dem verzweifelt hinterher.
0:32:58–0:33:04
Das hat durch die durch die Metakognition Systeme einfach so eine Beschleunigung
0:33:04–0:33:07
erlebt, dass die Menschen abgehängt sind.
0:33:07–0:33:12
Und das beste, was die noch machen können, ist, dass sie nicht mehr selber Wissen
0:33:12–0:33:17
erschaffen und eigene Papers herstellen, sondern innerhalb von publizierten
0:33:17–0:33:18
Papers, die durch den Meta,
0:33:19–0:33:23
entstanden sind, dann quasi hermeneutisch wie Bible Bible Studies,
0:33:23–0:33:26
Also gucken, in den Text gucken und versuchen, den Text zu interpretieren,
0:33:26–0:33:28
um irgendwie zu begreifen, worum es da geht.
0:33:28–0:33:32
Weil diese Metakognition natürlich inzwischen so weit schon weg ist von dem
0:33:32–0:33:37
Wortschatz, den die Menschen da hatten, dass man das interpretieren muss.
0:33:37–0:33:40
Also es gibt dann wiederum eine Form der Wissenschaft. Das finde ich auch lustig
0:33:40–0:33:47
in dem Text, dass er meint, ja, Menschen wollen scheinbar mit wissenschaftlichen
0:33:47–0:33:50
Gedanken arbeiten, das hat auch so was Spielerisches.
0:33:51–0:33:55
Das bestimmt auch was dran. Und deshalb, falls es hier gerade so ein bisschen
0:33:55–0:33:56
knistert es fängt an zu regnen.
0:33:58–0:34:03
Und deshalb werden die Menschen sich dann nicht mehr mit dem Erfinden neuen
0:34:03–0:34:06
Wissens, sondern mit der Deutung von erfundenem Wissen beschäftigen.
0:34:06–0:34:08
Fand ich irgendwie ganz spannend.
0:34:08–0:34:16
Und dann ist es nämlich auch noch so, dass die metakommunistischen Systeme einfach
0:34:16–0:34:21
um schneller arbeiten zu können, haben die diese Sprache auch eigentlich hinter sich gelassen?
0:34:22–0:34:25
Also die machen nur noch Sprache, quasi für die Menschen.
0:34:26–0:34:30
Das bleibt unklar, warum die die Menschen überhaupt noch bedienen damit.
0:34:30–0:34:33
Aber scheinbar ist es da irgendwie rein programmiert und die haben aber für
0:34:33–0:34:34
sich selbst inzwischen, dass,
0:34:36–0:34:43
die end entwickelte The Digital Neuraltransferance oder Initial Digital Transfer,
0:34:43–0:34:50
Transfer ist Übertragung aber eine andere Übertragung, also wo dann diese neuronalen Netze einfach.
0:34:51–0:34:54
Sozusagen Snapshot von sich miteinander austauschen können.
0:34:54–0:34:57
Und damit ist das ganze Wissen auch ausgetauscht, zack, zack,
0:34:57–0:35:00
zack, zack hin und her und es wird weiter gearbeitet.
0:35:01–0:35:05
Es gibt. In William Gibson gibt es, ich glaube in Mona Lisa Overdrive gibt es
0:35:05–0:35:10
so ein Bild von einem in Anführungszeichen. Cyberpunk, so hießen ja damals,
0:35:10–0:35:13
die halt dann im Cyberspace drin waren.
0:35:13–0:35:17
Es gibt so eine Form von Meltdown und da müssen die Personen dann künstlich
0:35:17–0:35:22
am Leben gehalten werden und dürfen aber auch nicht von dem Cyberspace entkoppelt werden.
0:35:22–0:35:26
Und dann werden in so ein eigenes System hineingelegt und da drin weiß dann
0:35:26–0:35:29
keiner was. Dieser Zombie quasi dann.
0:35:30–0:35:33
Oder die nennen die Vampire, weil die schlafen. Also du weißt gar nicht,
0:35:33–0:35:37
was sich da so entwickelt. Und so ähnlich ist das in dieser Kurzgeschichte auch beschrieben.
0:35:37–0:35:41
Also die dieses dieses entkoppelte Wissen schießt dann einfach,
0:35:42–0:35:47
macht einfach weiter so und das ist ja irgendwie glaube ich so eine ganz tiefe
0:35:47–0:35:49
Angst, die die Menschen auch haben.
0:35:50–0:35:53
Also dass man und da finde ich, ist es auch noch mal wichtig,
0:35:53–0:35:56
über die Definition der Begriffe und vielleicht so ein bisschen die Emotionen,
0:35:56–0:35:59
die damit verbunden sind, zu sprechen. Wenn du.
0:36:00–0:36:05
Früher von Maschinen lernen gesprochen hast. Ganz einfach.
0:36:06–0:36:08
Also es ging dann quasi darum, dass diese Maschinen etwas lernen,
0:36:09–0:36:14
dann, wenn man mal drüber nachdenkt, was da für eine Hierarchie entsteht oder für ein Bild entsteht.
0:36:14–0:36:19
Ist halt so, da ist die Maschine, die füttern wir, die ist wie so ein Hase.
0:36:20–0:36:24
Dem geben wir Sachen und der sitzt was lernen, der lernt so Tricks und dann
0:36:24–0:36:29
macht er Sachen schön, dann kann er auf einmal neue Sterne finden oder was auch immer.
0:36:29–0:36:37
Aber der wird quasi von uns als lehrende Einheit gefüttert, um dann was ganz
0:36:37–0:36:39
spezielles, Besonderes zu tun.
0:36:39–0:36:43
Wenn man nicht mehr von Lernen spricht, sondern von Intelligenz spricht,
0:36:43–0:36:47
dann geht es nicht mehr in Rezeption von Informationen und damit zu arbeiten
0:36:47–0:36:49
und die zu lernen, sondern es geht ja schon um Produktion.
0:36:49–0:36:56
Intelligenz erstellt ja Lösungen, findet Wege in Systemen und so und ich glaube,
0:36:56–0:36:58
das macht manchmal auch so ein bisschen bedrohlich.
0:36:58–0:37:03
Die Intelligenz, die produziert und das, das können wir nicht immer kontrollieren.
0:37:03–0:37:09
Vorher war es halt so, da war diese Maschine Schüler oder Schülerin und jetzt
0:37:09–0:37:15
auf einmal ist diese Maschine Professor oder Professorin. Und da tun wir uns
0:37:15–0:37:16
dann irgendwie ein bisschen schwer damit.
0:37:17–0:37:22
Das heißt, die Angst ist in dieser Geschichte auch schon so ein bisschen mit eingebaut.
0:37:22–0:37:29
Sobald wir diese Pandora Büchse öffnen, kriegen wir das nicht mehr eingefangen,
0:37:29–0:37:32
und dann machen die so ihr Ding und hängen total ab.
0:37:32–0:37:36
Das Beste, was dem Menschen bleibt, ist halt eben die Texte zu studieren und
0:37:36–0:37:43
versuchen herauszufinden, was diese neuen Entitäten da geschrieben haben.
Florian Clauß
0:37:43–0:37:49
Aber so ein bisschen halt noch wie so eine Softvariante von der Geschichte von Terminator.
0:37:49–0:37:52
Es gibt ja dann auch den Willen der Maschine. Wahrscheinlich ist das dann wirklich
0:37:52–0:37:54
so ein Asimov sches Gesetz.
0:37:55–0:37:59
Du darfst den Kommunikationsweg zu den Menschen nicht verlieren.
0:37:59–0:38:02
Das ist halt implementiert. Und dadurch müssen die sich halt wieder.
0:38:02–0:38:07
So, das finde ich jetzt ganz schön. Okay, wir müssen jetzt nochmal das irgendwie übersetzen.
0:38:07–0:38:09
Wahrscheinlich geht dann auch ganz viel verloren, weil dann,
0:38:09–0:38:15
wenn du innerhalb einer Sprache, eines Sprachsystem, eines Systems quasi bestimmte,
0:38:15–0:38:18
Beweise führst, dann ist ja dann die Übersetzung wieder so das,
0:38:18–0:38:21
was es dann nicht ganz abbilden kann.
0:38:22–0:38:26
Also kann man auch irgendwie schön weiterdenken. Aber klar, wenn die Maschinen
0:38:26–0:38:29
so den Menschen abhängen oder dann halt auch feindlich sind,
0:38:30–0:38:31
das dann halt die Menschen ausgeht.
0:38:31–0:38:34
Das ist ja so dieser Bad Dream of,
0:38:37–0:38:39
Artificial Life oder Intelligenz.
Micz Flor
0:38:39–0:38:43
Ja, und dass die Entente dann entscheidet, dass es nicht so viele Menschen geben
0:38:43–0:38:46
sollte, weil die Ressourcen sonst knapp werden, zum Beispiel und dann irgendwie,
0:38:47–0:38:48
Trinkwasser vergiftet oder so.
Florian Clauß
0:38:48–0:38:51
Ja oder wir, oder? Dann ist man ja auch wieder bei DAX da,
0:38:52–0:38:58
dass die selbst die Selbsterkennung als Bombe und in dem Moment okay,
0:38:59–0:39:03
ich bin und ich muss explodieren und damit ist alles ausgelöscht.
Micz Flor
0:39:02–0:39:04
Wir. Ein.
Florian Clauß
0:39:04–0:39:10
Das ist ja von Carpenter, der ich glaub in den 70er, da es da auch sehr schön science.
Micz Flor
0:39:10–0:39:12
Er ist, glaube ich, der. War das nicht der gleiche Drehbuchschreiber,
0:39:12–0:39:15
der dann lange nichts und dann Alien geschrieben hat?
0:39:16–0:39:19
Ich glaube wir sind ein Film Podcast. Muss man noch mal recherchieren?
Florian Clauß
0:39:16–0:39:21
Das kann ich nicht verstehen. Genau so also.
Micz Flor
0:39:20–0:39:24
Ja ja. Und das zweite wo du es jetzt sagst, was auch wieder Film Podcast ist,
0:39:24–0:39:25
ist natürlich Wargames.
0:39:25–0:39:30
Ich glaub von 83 oder 84 oder so wo. Ich glaube es war der E.T.
Florian Clauß
0:39:27–0:39:28
Er.
Micz Flor
0:39:30–0:39:35
Darsteller auch der da sich in Computer reingehackt hat und dann auf einmal,
0:39:35–0:39:39
ohne es zu wissen Zugang auf die ganzen atomaren Sprengköpfe hat.
0:39:39–0:39:44
Und dann durch diese Schleife, dass der Computer mit sich selbst spielt,
0:39:44–0:39:49
simuliert, erstmal merkt, dass der Krieg wie bei Tic Tac Toe einfach keine Gewinner hat.
0:39:49–0:39:54
Das ist immer unentschieden und es ist immer alles ausgelöscht und dann der
0:39:54–0:39:58
Computer selber dann mitteilt Also es ist aber langweilig, kann man nicht was anderes spielen?
0:40:01–0:40:04
Ja, und das andere ist aber eben in dieser Ted Cheng Geschichte ist natürlich
0:40:04–0:40:10
auch noch ein anderes Denken drin. Das ist dann eher so ein Denken. Ähm.
0:40:12–0:40:15
Ist. Also, das ist das, was du das letzte
0:40:15–0:40:19
Mal. Das ist mir ein bisschen zu metaphysisch. Also, da geht es darum,
0:40:21–0:40:25
es ist ein Riesenthema und vielleicht kommt es auch in deiner Folge von dem,
0:40:25–0:40:27
was ich weiß, immer rein. Aber diese Frage.
0:40:30–0:40:33
Wir reden immer von Bewusstsein. Und wir sind ja sehr menschenzentriert.
0:40:33–0:40:35
Also, wenn wir uns zum Beispiel vorstellen, dass Aliens auf uns kommen,
0:40:35–0:40:38
dann dürfen die aussehen wie sie wollen, uns egal. Aber wir müssen mit uns reden wollen.
0:40:39–0:40:45
Und es ist kaum vorstellbar, dass das Intelligenzniveau eines Laubfrosch irgendwie
0:40:45–0:40:49
jetzt mit einem UFO hier ankommt und Rubber Rubber mit anderen Fröschen spricht.
0:40:49–0:40:50
Aber wir können mit dem nicht reden. Irgendwie sind wir.
0:40:51–0:40:54
Wir sehen uns ja trotzdem. Quasi sowas als Zentrum also.
0:40:55–0:40:57
Und andersherum, wenn wir auf einen anderen Planeten fliegen,
0:40:57–0:40:59
dann wollen wir jetzt auch nicht nur Frösche sehen.
0:40:59–0:41:04
Das wäre natürlich. Also das wäre. Für Biologen wäre es natürlich unglaublich,
0:41:04–0:41:06
was da für Lebewesen sind.
0:41:06–0:41:11
Aber in Wahrheit ist es halt wieder so ein ganz, ganz kleine Nische,
0:41:12–0:41:14
mit der wir halt irgendwie zu tun haben wollen.
0:41:14–0:41:19
Also da geht es ja gar nicht darum, dass wir gibt uns irgendein Zeichen von
0:41:19–0:41:20
der Intelligenz da draußen,
0:41:21–0:41:26
und das ist zum Beispiel als Film Podcast, dem Ei von Steven Spielberg so schön
0:41:26–0:41:30
beschrieben als Bildsprache ganz zum Schluss, wo dann die Erde schon längst
0:41:30–0:41:34
irgendwie zugefroren oder sonst was ist, kommen dann so,
0:41:34–0:41:38
strichähnliche Wesen schon fast an, wo man nicht weiß, sind das Roboter oder
0:41:38–0:41:41
wirkliche Wesen, die in Anführungszeichen biologisch sind,
0:41:42–0:41:51
die dann das alles so völlig lautlos und schwerelos und auch im positiven Sinne
0:41:51–0:41:53
kraftlos mit Leichtigkeit zu zerlegen und abstellen? Ich weiß nicht,
0:41:53–0:41:54
ob du dich daran erinnern.
Florian Clauß
0:41:54–0:42:00
Ja, aber ist er nicht auch? Treffen da nicht auch auf diesen Roboter?
Micz Flor
0:42:00–0:42:01
Den Jungen. Genau.
Florian Clauß
0:42:00–0:42:03
Wir sind Kinder und können die dienen dann halt reaktivieren?
0:42:03–0:42:06
Oder haben wir Zugang zum Gedächtnis? Da war doch irgendwas.
Micz Flor
0:42:06–0:42:10
Ja, also wenn ich mich recht erinnere, ist es dann auch eher wieder ein psychologisches
0:42:10–0:42:11
psychotherapeutisches Thema.
0:42:11–0:42:17
Natürlich hier als Analogie so abgehandelt Dieses Kind, dieser Roboter,
0:42:20–0:42:24
der, wie du sagst, die Bombe muss explodieren, der wird ja gebaut,
0:42:24–0:42:29
damit Eltern, die keine Kinder haben können, ein Kind haben können.
0:42:30–0:42:34
Und diesem Kind muss man dann den Knopf hinten irgendwie drücken und ein bestimmtes
0:42:34–0:42:35
Gedicht aufsagen, der Satz erst sagen und dann.
Florian Clauß
0:42:35–0:42:36
Und dann sind die konditioniert.
Micz Flor
0:42:36–0:42:44
Naja, eher im printed geprägt. Also dann sind die geprägt auf unendliche Liebe.
Florian Clauß
0:42:39–0:42:40
Ja, er.
Micz Flor
0:42:44–0:42:48
Für diese Frau und das macht die auch. Und dann kriegen sie trotzdem noch ein Kind.
Florian Clauß
0:42:44–0:42:44
Er.
Micz Flor
0:42:49–0:42:53
Und dann ist es so, dass natürlich dieser Roboter dieses Kind überlebt alle,
0:42:54–0:42:59
und ähm und ist immer voller Liebe auf der Suche nach seiner Mutter,
0:42:59–0:43:01
die dann schon lange, lange tot ist.
0:43:01–0:43:06
Und er endet dann, indem er irgendwie von einem Karussell, irgendwie ganz tief
0:43:06–0:43:10
im Wasser, ich weiß nicht wieder hin kommt und sieht dann immer sozusagen ein.
Florian Clauß
0:43:07–0:43:09
Ja, genau das ist so!
Micz Flor
0:43:10–0:43:13
Abbild, fast ein Abbild seiner Mutter als,
0:43:14–0:43:17
Karussell, Holzfigur oder Galionsfigur.
0:43:17–0:43:21
Und da wird er dann gefunden.
0:43:22–0:43:28
Und mit diesem Roboter kommunizieren dann diese anderen Wesen und geben ihm dann, bevor er,
0:43:29–0:43:34
erlischt, Wie man immer sagen möchte, geben ihm glaube ich die Möglichkeit noch,
0:43:34–0:43:39
ein Bild zu generieren von also aus seinen Gedanken heraus generieren die dann
0:43:39–0:43:41
noch mal diese Frau, also seine Mutter.
Florian Clauß
0:43:40–0:43:45
N. Stimmt also. Er kriegt dann quasi seine seine Wunscherfüllung dann.
Micz Flor
0:43:45–0:43:52
Ja, ja, aber eben natürlich auch. Und das ist dann auch nur als mentales Bild.
0:43:52–0:43:56
Also er kriegt es ja nicht als reale Person, sondern er darf das noch mal erleben,
0:43:56–0:43:58
die machen ihm das sozusagen.
0:43:59–0:44:03
Ja, und bei bei Ted Chang ist halt, denke ich auch in dieser Geschichte,
0:44:03–0:44:08
wenn man auf diese Metapher nicht mit der völligen panpsychische Ebene geht,
0:44:08–0:44:11
wo Bewusstsein im Universum schon angelegt ist.
0:44:11–0:44:15
Und es ist nicht so, dass komplexe Systeme Bewusstsein herstellen,
0:44:15–0:44:20
sondern dass das Bewusstsein da ist und komplexe Systeme es einfacher haben, damit zu interagieren.
0:44:21–0:44:24
Dann ist es so, dass in dieser Vorstellung.
0:44:26–0:44:31
Die Komplexität der Systeme immer weiter geht und dann geht die durch die Menschheit durch.
0:44:32–0:44:35
Also wir werden abgehängt von diesen Systemen, die wir entwickelt haben.
0:44:35–0:44:39
Aber das ist einfach nur Teil des großen Plans. Die Dinosaurier sind weg.
0:44:39–0:44:42
Dann kommen die Säugetiere, die Säugetiere bringen uns. Dann sind wir weg.
0:44:42–0:44:45
Und dann gibt es noch diese Maschinen und das Bewusstsein geht immer weiter.
0:44:46–0:44:48
Und das ist halt dann irgendwie so einer, wie du meintest.
0:44:49–0:44:51
Was man deine Worte eine zu.
0:44:55–0:44:58
Was hast du gesagt? Du hattest ein Adjektiv gesagt. Nein, das ist mir jetzt,
0:44:58–0:45:01
zu esoterisch, hast du gesagt.
0:45:01–0:45:05
Esoterisch ist aber eine.
0:45:07–0:45:14
Legitime Wissenschaft. Roger Penrose vertritt seit Jahrzehnten die die Hypothese,
0:45:14–0:45:18
dass eben und da ist Ja, also da muss man.
0:45:18–0:45:22
Ich finde das total spannend das Thema weil es wird natürlich auf der Philosophie
0:45:22–0:45:28
auch schon immer hin und her gefragt mit dem Mind Body Problem oder so. Das war ja dann auch.
Florian Clauß
0:45:28–0:45:32
Es ist auch natürlich im Buddhismus, genau wie du es beschreibst.
0:45:32–0:45:39
Da ist halt immer Bewusstsein im Raum da und das ist insofern auch da eine Annahme.
0:45:39–0:45:42
Aber natürlich um esoterisch. Es klingt ein bisschen abwertend,
0:45:42–0:45:47
aber es ist vielleicht eher, um es wissenschaftlich quasi begehbar zu machen.
0:45:47–0:45:53
Muss jetzt irgendwie dann halt müssen halt diese diese Wiederholbarkeit usw.
0:45:53–0:45:57
Die muss ja dann halt auch für dieses Feld und dann wird es halt schwierig.
0:45:58–0:46:02
Dann sind das halt erst mal so Theorien muss man dann gucken,
0:46:02–0:46:06
ob man dafür quasi Experiment oder eine Belegbarkeit findet.
0:46:06–0:46:09
Das ist halt so glaube ich, die Herausforderung. Aber erst mal finde ich total,
0:46:09–0:46:11
interessant als Gedankenexperiment.
Micz Flor
0:46:12–0:46:15
Also da wäre halt für diese Idee. Von so einem Drang des Bewusstseins,
0:46:15–0:46:18
sich im Universum auszubreiten, sollte man annehmen, so etwas gäbe es.
0:46:19–0:46:22
In dieser Kurzgeschichte sind die Menschen haben so ihre Schuldigkeit getan
0:46:22–0:46:26
und geben diesen Staffelstab weiter. So wie die Bakterien an die Mehrzeller usw..
Florian Clauß
0:46:25–0:46:30
Genau. Aber was auch dahinter hängt, und das versuche ich dann auch.
0:46:30–0:46:34
Wenn ich demnächst über mein Thema rede ist.
0:46:34–0:46:39
Es gibt natürlich immer diese total menschzentrierte Einordnung von,
0:46:41–0:46:47
Bewusstseinsstufen und das ist auch eigentlich nicht haltbar,
0:46:47–0:46:50
sondern der Mensch sieht sich immer als Krone von irgendwas.
0:46:50–0:46:54
Aber er ist ja quasi auch nur ein Zustand von vielen in der Biologie,
0:46:55–0:46:57
die völlig gleichwertig sind.
0:46:57–0:47:03
Also ich glaube, das ist halt so auch die Herausforderung, da in der Wissenschaft
0:47:03–0:47:06
oder in der neuen, dass man das halt so ein bisschen zurücknimmt und guckt auch
0:47:06–0:47:09
auf Systeme, die halt Intelligenz dann anders,
0:47:11–0:47:14
so rausbringen oder produzieren können.
Micz Flor
0:47:14–0:47:18
Ja, da bin ich echt gespannt drauf. Deine Folge.
0:47:19–0:47:23
Was ich aber auch noch dazu sagen wollte ich finde, da kommen bei dieser,
0:47:23–0:47:27
bei dieser pan psychischen Seite kommen auch so zwei Dinge zusammen, die glaube ich.
0:47:31–0:47:36
Irgendwie zusammenzugehören scheinen. Aber ich weiß nicht, ob sie das wirklich
0:47:36–0:47:40
tun. Das eine ist eben das, ähm, das gibt ja gerade so einen.
0:47:40–0:47:45
So, nun haben wir auch schon so ein großes Interesse an Quantenmechanik,
0:47:45–0:47:48
Quantenphänomene und so was. Ein Tanglemünd.
0:47:48–0:47:51
Diese enzymatischen Sachen habe ich schon angesprochen. Photosynthese.
0:47:51–0:47:53
Man entdeckt jetzt immer mehr,
0:47:53–0:47:59
auch im biologischen System, dass da Quantenthemen drin sind und diese,
0:48:00–0:48:06
die Biologie hat unglaublich viele Energieprobleme, zum Beispiel solche banalen
0:48:06–0:48:11
Dinge wie wenn eine Mitose stattfindet, dann muss der Zellkern sich komplett
0:48:11–0:48:15
abrollen und diese abgerollte dann die Kette sich öffnen.
0:48:15–0:48:19
Das passiert nicht quasi, das passiert gleichzeitig in unterschiedlichsten Stellen,
0:48:19–0:48:22
dann werden die ja verdoppelt und dann trennt sich die ganze Zelle,
0:48:22–0:48:26
dann werden zwei Zellen draus und wenn man das einfach mal durchrechnet,
0:48:26–0:48:28
dann muss die Reibungshitze, die da entsteht,
0:48:28–0:48:32
in der Geschwindigkeit, in der es passiert, dann müsste eigentlich alles irgendwie verdampfen.
0:48:32–0:48:36
Das kriegt man gar nicht so durchgerechnet in einem Newtonschen Modell.
0:48:36–0:48:41
Das heißt, man, man geht jetzt inzwischen davon aus, dass ähnlich wie bei enzymatischen
0:48:41–0:48:48
Prozessen, das halt auf einer Quantenebene, diese diese Energierechnung funktionieren kann,
0:48:50–0:48:54
wo die Reibung in dem Sinne keine Rolle mehr spielt und auch.
Florian Clauß
0:48:54–0:48:56
Okay, das ist auch fett.
Micz Flor
0:48:57–0:49:01
Und aber auch andere, ganz andere Phänomene. Dieses Quantum an Tanglemünd,
0:49:01–0:49:03
wo man einfach wirklich merkt, ja,
0:49:03–0:49:09
es ist da, wir können sogar schon anfangen, damit zu experimentieren und Informationsübertragung,
0:49:09–0:49:13
über gewisse Distanzen komplett sicher zu machen, weil wir anhand von Teilchenbewegungen,
0:49:14–0:49:20
die keine nicht miteinander senden, in unserer Welt, aber die miteinander in ten Geld sind,
0:49:21–0:49:25
dass die verschiedene Spins herstellen können.
0:49:25–0:49:28
Wenn wir das in der einen Seite drehen, dann kann man in der anderen Seite lesen,
0:49:28–0:49:30
was wir da machen. Das gibt es ja.
Florian Clauß
0:49:29–0:49:34
Aber vielleicht ist es auch viel fließender. Also die Quantenwelt war immer
0:49:34–0:49:39
so eine abgegrenzte Welt, die ab einer Quantenlänge anfängt und hat nichts mit unserer Welt zu tun.
0:49:40–0:49:45
Aber vielleicht sind diese Phänomene viel, viel stärker implementiert,
0:49:45–0:49:51
irgendwo, ohne dass so viel gebräuchlicher als man das irgendwie so wahrnimmt.
0:49:51–0:49:56
Natürlich eine extremst kleine Wirkung, die das erzeugen kann.
Micz Flor
0:49:56–0:49:59
Ja, ja, aber das ist. Ja, genau.
Florian Clauß
0:49:57–0:49:58
Fotosynthese oder sowas.
0:49:58–0:50:02
Aber es sind so Kern Kernfunktionen, die das bedient.
0:50:03–0:50:09
Und auf der anderen Seite ist natürlich unsere Newtonschen Welt mit Körper, Schwerkraft und Kugel.
Micz Flor
0:50:09–0:50:12
Ja, genau. Mit Abrisskugeln. Also.
Florian Clauß
0:50:09–0:50:17
Es ist halt irgendwie alles viel greifbarer und viel erlebbarer,
0:50:17–0:50:23
weil unser ganze Sensorik ist halt darauf ausgerichtet, dass wir halt in dieser Welt quasi,
0:50:25–0:50:27
Veränderungszustände wahrnehmen.
Micz Flor
0:50:27–0:50:30
Ja, ich glaube, der große wichtige springende Punkt ist halt,
0:50:30–0:50:34
dass man immer mehr Quantenmechanik auch in biologischen Systemen entdeckt,
0:50:34–0:50:40
während man lange Zeit dachte, das geht nur bei null Temperaturen im absoluten Vakuum und so was. Also.
0:50:40–0:50:47
Aber nein, es geht eben auch mitten in mitten in der Biologie. Es ist.
Florian Clauß
0:50:46–0:50:52
Genau. Genau das war er. Das war damals alles unkontrollierbar. Aber.
Micz Flor
0:50:47–0:50:54
Es ist warm, es ist feucht, es ist alles unkontrollierbar. Aber genau da passiert Quanten. Das heißt.
Florian Clauß
0:50:53–0:50:57
Ich glaube, das ist genau das war ja für uns beide so dieser Punkt.
0:50:57–0:51:01
Diese Wahrnehmung beim Rotkehlchen, das Erdmagnetfeld.
0:51:01–0:51:05
Das ist halt ein Sinnesorgan, ist aber eher in der Photosynthese.
0:51:05–0:51:09
Ist ja auch genauso ohne Photosynthese ja nix auf der Welt quasi.
Micz Flor
0:51:09–0:51:13
Genau das Rotkehlchen. Ist er wirklich? Man kann das irgendwie beobachten.
0:51:13–0:51:15
Man kann es irgendwie mit mathematisch auch erfassen.
0:51:16–0:51:17
Man kann es aber noch nicht wirklich erklären.
Florian Clauß
0:51:17–0:51:18
Nee, genau das ist.
Micz Flor
0:51:18–0:51:23
Und das ist der eine Punkt. Und der andere Punkt ist eben diese Frage nach Bewusstsein.
0:51:23–0:51:27
Und wenn das zusammenkommt, dann ist halt so Penrose, der halt irgendwie sagt,
0:51:27–0:51:30
mit den Namen des anderen Wissenschaftlers habe ich jetzt vergessen,
0:51:30–0:51:37
der sagt, es gibt in den Zellen Mikrotubuli heißen die oder so gibt es solche säulenähnlichen,
0:51:37–0:51:40
Gefüge, von denen man nicht genau weiß, was die sollen.
0:51:40–0:51:45
Und jetzt ist halt die Hypothese und da gibt es wohl auch schon erste Befunde
0:51:45–0:51:52
dazu, dass da drin eben so Quanteneffekte irgendwie passieren.
0:51:52–0:51:57
Also ob das so ein Tor ist zu einem, zu einem, zu einer anderen Ebene,
0:51:57–0:51:59
zu einer neuen Ebene von Vernetzungen, die.
Florian Clauß
0:51:58–0:52:00
Wo jetzt? Ich hab den.
Micz Flor
0:52:00–0:52:03
Das ist diese immer noch dieser Punkt jetzt von dem Psychischen,
0:52:03–0:52:08
dass es Bewusstsein ist ein Zustand.
Florian Clauß
0:52:07–0:52:09
Also. Ach, krass. Also.
Micz Flor
0:52:09–0:52:11
Das ist quasi eine Gegebenheit.
0:52:11–0:52:15
Bewusstsein ist da und dieses Bewusstsein wird jetzt über Zellen.
Florian Clauß
0:52:12–0:52:13
Ja, und dieses.
Micz Flor
0:52:15–0:52:18
Über diese Tubular Sachen angedockt.
Florian Clauß
0:52:16–0:52:20
Äh, okay. Okay. Das ist. Das ist interessant. Ja, das ist.
0:52:20–0:52:24
Also. Also, das heißt, das ist so quasi das Tor zur Quantenwelt.
0:52:24–0:52:29
Und irgendwo ist es in der Raum Raum als Information vorhanden,
0:52:30–0:52:35
aber in einer in einer Welt kodiert, die wir nicht so erschließen können,
0:52:35–0:52:37
aber die physikalisch irgendwo messbar ist.
Micz Flor
0:52:38–0:52:42
Und damit lege ich dann eine kurze Spur in meine nächste Folge.
0:52:42–0:52:45
Wir haben es jetzt ein bisschen vorgeplanten Vierteiler, wo ich dann noch mal
0:52:45–0:52:49
über Freud und seine Theorie der Triebe im ausgehenden 19.
0:52:49–0:52:52
Jahrhundert reden möchte, wo er eigentlich was ähnliches versucht hat,
0:52:52–0:52:55
nämlich die geistige und die materielle Welt miteinander zu verknüpfen.
0:52:55–0:52:58
Und genau das sehe ich jetzt bei Penrose irgendwie auch.
0:52:58–0:53:03
Also dadurch, dass jetzt diese diese fast schon spirituelle Quantenwelt öffnet,
0:53:03–0:53:06
versucht der herzustellen eine,
0:53:06–0:53:10
physikalischen Raum innerhalb von physikalischen Gesetzen ist es möglich,
0:53:10–0:53:15
etwas nicht physikalisches zu beschreiben, was wir können, dann wir können dann
0:53:15–0:53:19
auf einmal das Spirituelle, das Geistige, die das Seelische, die Liebe.
0:53:19–0:53:23
Das können wir dann auf einmal über über so eine Öffnung, so einen Quantenraum hinein machen.
0:53:23–0:53:27
Also das ist so ein ganz interessanter, ganz interessanter Knick,
0:53:27–0:53:30
weil du hast das ganz oft gerade in der Bewusstseinsforschung,
0:53:30–0:53:35
dass in den experimentellen Settings, egal ob das jetzt bei Neurologen ist oder,
0:53:35–0:53:37
auch beim Machine Learning, also,
0:53:37–0:53:42
es gibt immer vorneweg eine Definition und diese Definition limitiert.
0:53:45–0:53:50
Den Raum. Dann ist zum Beispiel Bewusstsein nur etwas, was so und so und so und so ist.
0:53:50–0:53:53
Und diese ganzen Sachen, die können wir eben nicht messen, deshalb lassen wir sie weg.
0:53:54–0:53:57
Und wenn du das dann halt so einschränkst, dann baust du ein Experiment,
0:53:57–0:54:04
das darauf auch noch aufbaut und das sich dann auch beweisen lässt oder widerlegen lässt.
0:54:04–0:54:09
Aber diese ganzen Annahmen, die du vorneweg machen musst, um der Prozess selbst
0:54:09–0:54:13
operationalisieren, um einen kompletten Möglichkeitsraum herunterzubrechen,
0:54:13–0:54:15
zu operationalisieren auf,
0:54:16–0:54:20
Zusammenhänge, die du dann messen kannst, das ist halt.
0:54:21–0:54:27
Das ist halt der Kniff, der in der rein physikalischen, medizinischen,
0:54:27–0:54:28
biologischen Arbeit gemacht wird.
0:54:28–0:54:33
Und wenn man dann so was wie Bewusstsein oder Liebe auf einmal oder Glaube da.
Florian Clauß
0:54:33–0:54:35
Ja, Ja.
Micz Flor
0:54:34–0:54:39
Mit reinnehmen möchte, dann muss man eigentlich diesen physikalischen Raum verlassen.
0:54:40–0:54:45
Aber Penrose hat dann irgendwie gesagt, das ist Quanten und sofort denkt man,
0:54:45–0:54:46
ja, das kann sein, gute Idee.
Florian Clauß
0:54:46–0:54:50
Ja, ja, aber man muss jetzt doch noch mal so ein bisschen was zurücknehmen,
0:54:50–0:54:54
weil momentan wird ja auch ganz viel in diesem esoterischen Bereich,
0:54:54–0:54:59
wo dir alle möglichen Schummeleien angeboten wird, da wird ganz viel mit der Quanten.
Micz Flor
0:54:59–0:55:00
Der Quanten Healing.
Florian Clauß
0:55:00–0:55:05
Ja, es wird ganz viel. Also es ist so, das ist so, egal was das wird und es
0:55:05–0:55:09
ist auch total hoch akzeptiert da in der neuen Quanten, die werden ja auch,
0:55:09–0:55:14
also da wird es ja auch völlig quer, also völlig falsch benutzt und,
0:55:15–0:55:21
das ist dann wieder diese Nähe zur Esoterik, wo man gucken muss wie, wie eng ist das Feld,
0:55:22–0:55:25
man kann, kann halt ein bisschen gefährlich werden.
0:55:25–0:55:30
Da aber ist auf jeden Fall ja gut, dann kann es irgendwie so ein bisschen rein verlagern.
Micz Flor
0:55:30–0:55:33
Aber es ist auf alle Fälle absehbar. Also wenn ich jetzt mal wieder vor dem
0:55:33–0:55:38
Hintergrund der Neurologie jetzt als Psychologe da reinschaue und du guckst,
0:55:38–0:55:41
diese Entwicklung an, dann gab es ja lange, lange Zeit.
0:55:43–0:55:47
Überhaupt erst mal so eine ganz grobe Karte vom Gehirn, die man eher dann im
0:55:47–0:55:50
ersten Weltkrieg verfeinert hatte, weil dann Leute Teile weggeschossen bekamen.
0:55:50–0:55:53
Dann konnte man auf einmal sehen Ach guck mal, der kann nicht mehr sprechen,
0:55:53–0:55:54
der kann nicht mehr sehen.
0:55:54–0:55:58
Da wurde das Gehirn kartographiert, das heißt, das Gehirn wurde dann erst mal
0:55:58–0:56:03
so etabliert, auch als Zentrum von diesen ganzen kognitiven Prozessen und Areale
0:56:03–0:56:06
wurden identifiziert. Das war ein Riesenfortschritt.
0:56:06–0:56:10
Gruseliger Hintergrund, aber so war das nun mal so. Und dann kamen halt später
0:56:10–0:56:13
diese Mikroskopitechnik usw.
0:56:13–0:56:16
Rein. Dann hat man irgendwann eben diese Zellen im Gehirn, die Neuronen,
0:56:16–0:56:22
dann konnte man Elektrizität messen, dann hatte Elektrizität auf einmal eine ganz wichtige Rolle.
0:56:22–0:56:27
Dann hat man die Synapsen Chemie entdeckt. Die hatte dann auf einmal eine ganz wichtige Rolle.
0:56:27–0:56:31
Und wir sprechen auch heute natürlich bei künstlicher Intelligenz von Neuronen,
0:56:31–0:56:35
also auch da wieder eigentlich so eine menschlich menschliche Zentrum Idee,
0:56:36–0:56:40
weil wir denken so. Deshalb nennen wir es mal Neuron.
0:56:40–0:56:44
Und manchmal, wenn man sich dann Texte dazu durchliest, wo das verglichen wird,
0:56:44–0:56:48
Biologie und künstliche Intelligenz, ist es manchmal verwirrend.
0:56:48–0:56:51
Wo man manchmal ein bisschen den Faden verliert. Geht es um biologischen Neuronen
0:56:51–0:56:55
oder geht es hier um neuronale Netz Neuronen?
0:56:56–0:57:00
Aber auf jeden Fall ist es klar, dass.
0:57:02–0:57:06
Quantenmechanik einen Einfluss haben wird. Man wird es einfach finden, das ist ja klar.
0:57:07–0:57:10
Bei allem, was man gefunden hat, Elektrizität, Chemie, alles was man bis jetzt,
0:57:11–0:57:13
so erschlossen hat, ist auch wirksam in Zellen.
0:57:14–0:57:17
Quantenmechanik wird auch wirksam sein, gerade bei neuronalen Zellen, deren.
0:57:19–0:57:27
Die Leitung von Signalen passiert über Ionenkanäle, die Spannungsunterschiede
0:57:27–0:57:32
anhand an der Myelinschicht entlang transportieren, bis hin zu Synapsen und Synapsen wird dann.
0:57:32–0:57:36
Durch diese ankommenden elektrischen Impulse.
0:57:36–0:57:40
Werden dann Transmitter ausgeschüttet oder geblockt. Dann gibt es halt die Möglichkeit,
0:57:40–0:57:43
mit Psychopharmaka das zu beeinflussen,
0:57:43–0:57:48
die Aufnahme zu hemmen von solchen synaptischen Wirkstoffen und so.
0:57:48–0:57:52
Und das heißt, wir sind sowieso schon an dem Punkt, wo es jetzt nur noch eine
0:57:52–0:57:57
Frage der Zeit, bis man merkt, dass bestimmte Prozesse am besten erklärbar sind.
0:57:57–0:58:01
Wenn man Quantenmechanik auch damit rechnet, dass wird passieren,
0:58:01–0:58:03
wie in anderen Bereichen auch.
0:58:03–0:58:08
Aber das heißt in keiner Weise, dass es jetzt so ein Quantum brain and the magic
0:58:08–0:58:12
healing of Quantum power, das kann man wahrscheinlich gut verkaufen.
0:58:12–0:58:14
Vielleicht sollten wir die Folge so nennen.
Florian Clauß
0:58:15–0:58:16
Quantenheilung.
Micz Flor
0:58:16–0:58:20
Weil dann gibt es so ein bisschen eine Zielgruppe. Vorbei, aber viele Klicks, aber wenig.
Florian Clauß
0:58:21–0:58:26
Hin. Künstliche Quantenintelligenz. Quellen? Nein. Quanten.
Micz Flor
0:58:28–0:58:32
Dann mache ich hier nochmal einen Strich und wollte jetzt noch den dritten Block.
0:58:33–0:58:40
Da geht es jetzt um Musik, habe ich vorhin schon erwähnt, aber in einem etwas anderen Zusammenhang.
0:58:41–0:58:45
Was wir jetzt gerade sehen, was was eben auch so sehr überzeugend ist,
0:58:45–0:58:49
zum Beispiel bei Dali II, wo Bilder entstehen. Oder inzwischen wird auch Musik
0:58:49–0:58:51
hergestellt, nicht mehr nur Noten oder MIDI Signale.
0:58:52–0:58:56
Es entstehen Texte, also es wird quasi Content produziert in allen möglichen
0:58:56–0:58:59
Formaten. Demnächst werden wir auch die ersten Trickfilme sehen usw..
0:59:00–0:59:06
Es geht immer auch um eine Form von Narration, von Semantik,
0:59:06–0:59:08
weil sonst kriegen wir das ja alles auch. Da sind wir halt Menschen,
0:59:08–0:59:09
Rezipienten, Wir kriegen sie
0:59:09–0:59:12
irgendwie nicht gecheckt, wenn es nicht auch irgendwas erzählt, das Bild.
0:59:14–0:59:20
Ganz am Anfang haben wir über die Bibliothek gesprochen, in der alle möglichen
0:59:20–0:59:23
Texte sind. Also wir wollen ja schon Struktur und Ordnung haben,
0:59:23–0:59:24
damit wir es überhaupt sehen können.
0:59:25–0:59:34
Also Signal, Noise, Ratio und ein Bereich, in dem schon sehr früh viel Forschung passieren konnte,
0:59:35–0:59:40
weil es einerseits narrativ, auch emotional, menschlich und sowas ist,
0:59:40–0:59:46
aber andererseits eben nicht wie ein Ölgemälde oder ein eine Band, die spielt.
0:59:47–0:59:51
War halt in dem Musikbereich, weil es war da schon möglich mit Noten.
0:59:51–0:59:54
Du kannst dir vorstellen, es gibt ja auch midi viele Noten, die hintereinander
0:59:54–0:59:58
kommen, zum Beispiel das, was ZPBT gemacht hat.
0:59:58–1:00:03
Man könnte zum Beispiel sagen Rate was die nächste Note ist.
1:00:03–1:00:06
So wie man jetzt gesagt hat, Rate was das nächste Wort ist.
1:00:06–1:00:11
Und der Raum von Noten ist dann eher wie so eine kleine Bücherei in der Woche
1:00:11–1:00:15
ist Geschichte, also man hat weniger Noten, man hat unterschiedliche Längen
1:00:15–1:00:16
der Noten, aber weniger Noten.
1:00:16–1:00:22
Und man hat dann schon in den 80er Jahren Systeme gebaut, die anhand dieses
1:00:22–1:00:30
Rate die nächste Note zum Beispiel Bach ähnlich oder Mozart ähnliche Stücke geschrieben haben.
1:00:31–1:00:39
Und ein Musiker und Komponist, der da drin gearbeitet hat, ist David Cope.
1:00:40–1:00:44
Und ein Paper von ihm glaube ich noch aus den 80er Jahren. 84,
1:00:45–1:00:50
83 oder 84 waren die ersten Versuche, wie man.
1:00:54–1:00:58
Entweder über eine reine Kreativität, neuronale Netze Idee,
1:00:59–1:01:05
Melodien erstellen kann, indem man sagt Rate die nächste Note oder dass man
1:01:05–1:01:10
zuerst Modelle entwickelt, dass man versucht, erst mal so top down mäßig Modell
1:01:10–1:01:14
zu entwickeln, wo zum Beispiel drinsteht, wenn Bach.
1:01:16–1:01:21
Ein Lied für die Kirchenorgel geschrieben hat, dann dann macht er gerne Symbole
1:01:21–1:01:26
der Kreuze, wo zwei Linien Melodien aufsteigend sich so kreuzen,
1:01:26–1:01:28
weil das war dann seine Hommage an Gott.
1:01:28–1:01:31
Es geht um den Glauben und den sieht man dann sogar auf dem Notenblatt.
1:01:31–1:01:36
So was weiß man und das kann man ja dann als Modell herstellen und kann dann
1:01:36–1:01:42
einem System, das Noten schreibt, sagen okay, wenn geht, dann machen wir so
1:01:42–1:01:44
Kreuze rein, dann sieht es nach Bach aus.
1:01:44–1:01:54
Und damals hat sich schon gezeigt, dass die glaubwürdigsten und auch effizientesten, also von der,
1:01:54–1:02:00
von der Ausbeute her und auch von der Zeit her die Systeme, die waren,
1:02:00–1:02:07
die beides kombiniert haben, also quasi top down und aber auch einfach Deep
1:02:07–1:02:08
Learning ähnliche Strukturen.
1:02:09–1:02:14
Und ich finde, das ist so eine Sache, die man wahrscheinlich jetzt wieder als
1:02:14–1:02:16
Pendel bald finden wird,
1:02:17–1:02:23
weil jetzt gerade bei Dali II wurde ja das gleiche System einfach noch mal abgesgeeilt,
1:02:24–1:02:27
und hat dann auf einmal deutlich bessere Ergebnisse erzielt.
1:02:27–1:02:29
Und das ist ja auch total erstaunlich.
1:02:30–1:02:35
Aber man hat eben immer wieder auch diese Schreckensmeldungen von Autounfällen, weil halt.
1:02:36–1:02:42
Da gibt es dann so immer gibt es ja immer so Beispiele, zum Beispiel ein Einlernmodelle,
1:02:42–1:02:46
auch so Deep Learning für Autofahrassistenz,
1:02:46–1:02:49
wo das Auto auf der Brücke auf einmal große Probleme bekommen hat,
1:02:49–1:02:53
weil es bei allen Material bis jetzt immer nur Straßen hatte,
1:02:53–1:02:55
wo rechts und links noch Land war.
1:02:56–1:02:58
Eine Brücke war auf einmal was, keine Ahnung wo ich bin.
1:02:59–1:03:05
Ein System, was Material bekommen hat, um Leberflecken zu identifizieren,
1:03:05–1:03:07
die kann zurückgehen sind oder nicht.
1:03:07–1:03:12
Und dann hat sich rausgestellt, dass es bei den medizinischen Bildern mit Kanzer
1:03:12–1:03:16
gen Leberflecken oft so linealer daneben gab. Und das hat dann einfach quasi,
1:03:16–1:03:18
geschummelt wie so Neuntklässler.
1:03:18–1:03:23
Wenn Lineal drauf ist, dann ist es wahrscheinlich Krebs und hat das dann eben
1:03:23–1:03:26
hat das Diskriminierende, war halt eben das Lineal und.
Florian Clauß
1:03:26–1:03:30
Ist schon irgendwie. Aber das war dann auch schon Auszeichnungsmerkmal.
1:03:31–1:03:33
Und in dem Moment, wo das Lineal drauf ist, ist die Wahrscheinlichkeit,
1:03:33–1:03:35
dass es richtig sitzt, dann.
Micz Flor
1:03:35–1:03:40
Es ist schön. Es ist ein ganz schön weit gekommen. Dieser Leberfleck. Es gab auch einen.
1:03:41–1:03:45
Einen älteren Datensatz von Fotos von Gesichtern aus Medien.
1:03:46–1:03:49
Zurzeit, als George W. Bush noch Präsident war.
1:03:49–1:03:53
Und aus diesem Fundus stellte sich heraus, dass diese Gesichtserkennungssoftware,
1:03:53–1:03:57
sehr gut darin war, George W. Bush zu erkennen, aber nicht sehr gut war,
1:03:58–1:04:00
andere Gesichter zu diskriminieren.
1:04:00–1:04:04
Also das sind auch wieder so Bikes, die mit dem Material reinkommen und.
1:04:07–1:04:14
Ja, und das ist eben die Schwachstelle, wird oft gesagt, eben von diesen Deep
1:04:14–1:04:17
Learning Neuralnetzwerken, die.
1:04:18–1:04:23
Ähm, die keine Modelle mitbringen.
1:04:23–1:04:27
Und diese Modelle wiederum, das ist dann wieder, um ganz am Anfang der Folge zu sprechen.
1:04:27–1:04:31
Das sind dann eher die Systeme, wo man sich erst mal hinsetzt und sich quasi,
1:04:31–1:04:36
dann eine Lösung ausdenkt und die als Algorithmus vorgibt und dieser Algorithmus,
1:04:36–1:04:40
top down reguliert, in dem in dem Moment, wenn nur Network irgendwie läuft,
1:04:41–1:04:44
dann dem irgendwie assistiert Leitplanken aufzeigt.
1:04:44–1:04:49
Ich meine das jetzt sprichwörtlich nicht buchstäblich, aber zeigt so okay.
1:04:49–1:04:50
Nee, das kann nicht sein.
1:04:51–1:04:54
Komm noch mal zurück. Oder halt eben auch bestimmte Dinge abfragt.
1:04:54–1:04:57
Wenn du die 100 % sicher bist, gib mir die alle noch mal zurück.
1:04:57–1:05:00
Die will ich sehen. Oder wenn du 0 % sicher bist, gib mir die alle zurück, die will ich sehen.
1:05:01–1:05:07
Also dieses Zusammenspiel von Top down und neuronalen Netzen war wohl in dem Versuch.
1:05:09–1:05:13
Modelle zu beschuldigen, nicht Modelle, sondern Systeme zu erstellen,
1:05:13–1:05:17
die Musik komponieren, sodass es wie Mozart klingt oder so.
1:05:18–1:05:22
Die konnten anhand der Noten lernen und die besten Ergebnisse waren halt nicht
1:05:22–1:05:26
nur alle Noten zu lernen und abzubilden im neuronalen Netze,
1:05:26–1:05:28
sondern gleichzeitig auch von,
1:05:29–1:05:34
menschlicher Seite, eben Top down Modelle überstülpt zu bekommen. So.
1:05:35–1:05:40
Und jetzt gerade ist es irgendwie so, dass man mit der Rechenpower unglaublich
1:05:40–1:05:42
gut diese neuronalen Netze hochskalieren kann.
1:05:43–1:05:46
Wobei das jetzt ja auch schon wieder an Grenzen kommt. Dieses Moorsche Gesetz
1:05:46–1:05:49
von der immer kleiner werdenden Transistoren, das hat man jetzt,
1:05:50–1:05:52
da ist man so ziemlich am Ende.
1:05:52–1:05:56
Man fängt jetzt schon an die Transistoren zu stecken, so man dreidimensionalen Raum macht.
1:05:58–1:06:03
Man fängt sogar eben gerade auch für für künstliche Intelligenz an,
1:06:03–1:06:05
schon Hardware zu bauen, die sich an,
1:06:07–1:06:14
wie heißt es? Neuromorph heißt das glaube ich an biologischen Modellen orientiert,
1:06:15–1:06:20
so dass man so wie bei Grafikkarten, dass man quasi bestimmte Chips hat,
1:06:20–1:06:22
die bestimmte Dinge sehr gut können.
1:06:23–1:06:27
Und damit ist man dann auch wieder ein Rückschluss eben auf diese,
1:06:30–1:06:34
auf diese Kartographie des Geldes. Man ist dann wieder ein bisschen bei diesem Body Kognition Thema.
1:06:34–1:06:38
Es gibt dann auf einmal bestimmte Hardwareaspekte, die bestimmte Teilbereiche
1:06:38–1:06:43
der Kognition gut leisten können, die darin dann auch gerechnet werden.
1:06:43–1:06:46
Und man kann sich ja sehr gut vorstellen, so was wie Gesichtserkennung oder
1:06:46–1:06:50
Spracherkennung sind Sachen, die relativ universell und stabil über die Zeit
1:06:50–1:06:54
sind, dass die halt da sind wir bei unserer Konrad Zuse Folge,
1:06:54–1:06:58
dass die halt schon vorgegeben sind im System,
1:06:58–1:06:59
und dass man genauso wie auf einer
1:06:59–1:07:03
Grafikkarte dann alle möglichen Spracherkennung Sachen gleich da rüber.
Florian Clauß
1:07:03–1:07:07
Ja, er ist bereit. Ja, genau. Ich meine, das ist ja nichts anderes als dieser,
1:07:08–1:07:11
Chip, den auch Apple in einen zweiten Chip für sie einbaut.
1:07:11–1:07:16
Der hat genau diese diese Sachen schon in die Platine gelötet,
1:07:16–1:07:23
wo dann halt solche Sachen dann schon abgekapselt, dann als Bibliotheken vorhanden sind. Ja.
Micz Flor
1:07:23–1:07:26
Ein Fingerabdruckscanner zum Beispiel. Das kannst du ja inzwischen wahrscheinlich
1:07:26–1:07:27
in einer Hardware so lösen.
1:07:28–1:07:31
Und das ist halt so diese Sache. Das fand ich nochmal ganz interessant,
1:07:31–1:07:36
dass in den 80er Jahren über Musik, was ja auch eine emotionale Sache ist,
1:07:36–1:07:40
die künstlichen Mozartstücke haben die Menschen auch berührt und bewegt.
1:07:42–1:07:47
Dass da schon gezeigt wurde, dass beides notwendig ist.
1:07:48–1:07:51
Neuronale Netze, die einfach erst mal vorurteilsfrei lernen,
1:07:52–1:07:59
aber auch Modelle über die Welt, die das beeinflussen und damit in Austausch treten können.
1:08:00–1:08:05
Und dann eben als dritte Komponente die embedded Kognition oder bestimmte Systeme,
1:08:05–1:08:07
die spezialisiert sind auf bestimmte.
Florian Clauß
1:08:09–1:08:16
Wütend darüber. Wie soll ich wir jetzt hier rüberkommen? Ich will. Nein, du bist völlig.
Micz Flor
1:08:13–1:08:16
Ich bin jetzt. Wir machen jetzt hier Schluss. Ich meine Sie auf.
1:08:17–1:08:18
Ich würde jetzt hier mal.
1:08:21–1:08:22
Es ist jetzt so laut geworden.
Florian Clauß
1:08:23–1:08:28
Na ja, also wir können jetzt noch weitergehen. Und wir können jetzt wirklich wieder umdrehen.
1:08:29–1:08:34
Okay, sorry, das war jetzt kein guter Schluss.
Micz Flor
1:08:34–1:08:34
Ja.
1:08:37–1:08:41
Oh. Okay, dann give me to my. Aber gehen wir wieder zurück an die Straße.
1:08:41–1:08:42
Denn da war es ja dann so laut.
Florian Clauß
1:08:43–1:08:46
Wir beginnen hier hinter den Kasten.

Mehr

Während Menschen ein Leib sind, haben Maschinen bestenfalls einen Körper.

Es sollte "eigentlich" um Künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen. Doch eine gebrochene Rippe ermattet Micz zu sehr, um eine zusammenhängende Folge zustande zu bringen, eine "leibliche" Tatsache, die durch die Hintertür mit dem Thema "Künstliche Intelligenz" eng verwoben ist. Dass der Leib nämlich eine zentrale Rolle bei menschlichen kognitiven Prozessen spielt, darüber sind sich Vertreter:innen der "Embodied Cognition" einig. Wichtig ist hier der Begriff "Leib", der sich wesentlich vom "Körper" unterscheidet. Weswegen ich den deutschen Begriff der "leiblich verankerten Kognition" für "Embodied Cognition" gegenüber anderen Übersetzungen bevorzuge. Auch wenn "Leib" umgangssprachlich nur noch in theologischen Zusammenhängen eine Rolle zu spielen scheint, war etymologisch der Leib das Lebendige und der Körper der materielle, anatomische, leblose Gegenstand (vgl. im Englischen: corpse). Deshalb halten wir an dieser Folge fest und verstehen sie als Selbsterfahrung für unsere Hörer:innen, um ein Gespür dafür zu bekommen, was ein lädierter Leib dem menschlichen Denken antut. Die Frage, die daraus entstehen könnte: können "künstliche" kognitive Fähigkeiten ohne Leib überhaupt dem menschlichen Denken verwandt sein? Während Menschen ein Leib *sind*, *haben* Maschinen bestenfalls einen Körper.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß
avatar
Text2Speech
Intro

Transcript

Text2Speech
0:00:00–0:00:04
Gleich folgt die 18. Episode des eigentlich Podcasts.
0:00:04–0:00:14
Doch bevor wir beginnen, möchte ich Ihnen etwas Kontext geben und kurz verraten, was wenige Tage vor und wenige Minuten nach der Aufnahme geschah.
0:00:14–0:00:23
Mitch war drei Tage vor der Aufnahme hingefallen und dachte, er habe sich den Brustkorb geprellt. Immer wieder blieb ihm während der Aufnahme die Luft weg.
0:00:24–0:00:31
Flo machte sich deswegen Sorgen und fuhr mich im Anschluss an die Folge, die sie gleich hören werden, ins Krankenhaus.
0:00:32–0:00:37
Dort stellte sich heraus, dass dieser sich beim Sturz eine Rippe gebrochen hatte.
0:00:37–0:00:44
Es sollte eigentlich um künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen.
0:00:44–0:00:51
Wie sie jedoch schon zu Beginn merken werden Mitch ist nicht sehr ausdrucksstark. Das Atmen fällt ihm schwer.
0:00:52–0:00:56
Seine körperlose Stimme weckt Mitleid und wirkt gleichzeitig abstoßend.
0:00:57–0:01:07
Flo lässt sich von der Grabesstimmung runterziehen. Erst als sich abzeichnet, dass gleich Schluss sein wird, lebt er auf, lacht und albert herum.
0:01:08–0:01:13
Warum aber soll ich mir die Folge dann anhören? Danke für die Frage.
0:01:13–0:01:24
Inhaltlich ist die Folge wenig mitreißend, formal allerdings sehr eng mit dem Thema Künstliche Intelligenz verbunden. Welche Bedeutung hat der Körper?
0:01:24–0:01:32
Besser gesagt Körperlichkeit. Noch besser gesagt der Leib für Prozesse der Kognition und des Bewusstseins.
0:01:33–0:01:40
Zwar wird diese Frage in der folgenden Episode nicht diskutiert, aber auf der Bühne des Körpers vorgespielt.
Micz Flor
0:01:41–0:01:55
Ähm. Ja. Wir, Flo und ich mit Flo nehmen mir eigentlich das podcastde 14 tägig im Netz auf dem Blog Post.
0:01:55–0:01:59
Für jede Folge gibt es immer auch noch die Spur, wo wir langlaufen.
0:02:00–0:02:05
GPS Daten werden getrackt und heute sind wir irgendwie so um nichts.
0:02:08–0:02:18
Und laufen in der Wuhlheide einfach mal so ein bisschen die Wege ab, bis die Folge fertig ist. Wir wissen nicht, ob es fertig ist.
0:02:19–0:02:21
Kann es sich nur um Stunden handeln?
Florian Clauß
0:02:22–0:02:35
Ja hallo, auch von meiner Seite. Wir sind heute in der 18. Episode von Eigentlich Podcast und diese Folge hat uns Mitchenthema mitgebracht.
0:02:35–0:02:39
Ich weiß noch nicht, worum es geht. Ich bin gespannt. Ja, wir sind hier.
0:02:42–0:02:49
Du sagst es bereits in der Wuhlheide und gehen jetzt hier. Also einer, einer einen großen.
0:02:50–0:02:54
Ich glaube, das ist hier so ein Heizungsrohre. Ein Wasserrohr entlang. Ich habe.
0:02:54–0:03:00
Was weiß ich. Ich. Ich bin gut vorbereitet, weil ich habe eine Taschenlampe dabei.
0:03:01–0:03:07
Nee, nee, nee, nee, ich bin. Ich habe eine Taschenlampe dabei, wo wir dann halt den Weg, weil ich.
0:03:07–0:03:19
Was ich jetzt auf jeden Fall vermeiden möchte, ist das, das ich auf die Seite fasst und dich dann mitnehme und wir dann wie zwei Kafka Käfer rumliegen.
0:03:19–0:03:24
Und dann kommt ein Apfel von oben, der auf uns fällt auf den Körper und wir verfaulen noch.
Micz Flor
0:03:25–0:03:31
Gerade so ein schönes Psychotherapeutenwie mit dem Käfer von Kafka kennst du ja bestimmt.
0:03:32–0:03:40
Dieses Bild hat so ein kleines Holzbett, der Käfer liegt irgendwie drauf und unten drunter sagt jemand Haben Sie mal Achtsamkeitsübungen versucht?
0:03:41–0:03:45
Oh wow, Es ist richtig nebelig, dunkel und nebelig.
Florian Clauß
0:03:45–0:03:55
Ich mache. Ich mache meine Aufnahme. Das ist, glaube ich. Also können wir hier diese, dieses Licht, diese, diese Wassertröpfchen, das Kondensat, was hier rumfliegt.
0:04:03–0:04:07
Sind einigermaßen dramatisch aus. Okay.
0:04:08–0:04:19
Somit jetzt bin natürlich gespannt und ich bin auch ein bisschen, ich will nicht sagen besorgt, aber ich möchte, dass es dir gut geht und ich hoffe,
0:04:21–0:04:25
das wird es dir mit dem Thema, das du uns mitgebracht hast.
Micz Flor
0:04:26–0:04:30
Genau. Ich versuche mal zu reden. Ich klinge vielleicht ein bisschen flacher. Manchmal bleibt mir die Luft weg.
0:04:30–0:04:36
Das ist jetzt halt einfach so.. Aber vielleicht liegt es auch an diesem immensen Hype um das aktuelle Thema.
0:04:37–0:04:45
Gleichzeitig auch meine schüchterne Selbsteinschätzung, dass es mir zwar total wichtig ist, aber, ähm.
0:04:46–0:04:52
Ja, Flo, es geht. Es soll. Es soll in diesem Gespräch um künstliche Intelligenz gehen.
Florian Clauß
0:04:53–0:04:53
Oh, okay.
Micz Flor
0:04:53–0:04:59
Und das ist natürlich ein Riesenfeld. Und gleichzeitig möchte ich das so ein bisschen einschränken.
0:05:00–0:05:09
Ich denke, das ist so ein interdisziplinäres Feld, wo ja unglaublich viele Forschungsgebiete zusammenkommen.
0:05:09–0:05:13
Dazwischen auch die Philosophie, Technik, Philosophie, moralische Themen.
0:05:14–0:05:19
Was, was? Was heißt es denn, ein künstliches Bewusstsein anzuvisieren?
0:05:20–0:05:22
Ob man das überhaupt herstellen kann, sei dahingestellt.
0:05:23–0:05:31
Die Psychologie ist natürlich involviert, die Biologie ist involviert, die teilweise auch neuronal Inspiration für Hardware liefern kann.
0:05:32–0:05:37
Natürlich die Informatik programmieren.
0:05:37–0:05:51
Das geht halt quasi vor allen Dingen darum, auch Code zu generieren, der mit unglaublich großen Datensätzen Strukturen abbildet und erstellt, die dann wiederum einen Teil der Welt erkennen können oder damit irgendwas machen können,
0:05:51–0:05:54
wo in gewisser Form dann auch nicht nur der Code selbst,
0:05:55–0:05:58
sondern diese dieses Netzwerk,
0:06:01–0:06:02
der Gegenstand ist.
Florian Clauß
0:06:02–0:06:07
Wow. Also, großes Thema hier. Respekt. Respekt.
Micz Flor
0:06:07–0:06:13
Ich will es halt ein bisschen einfangen und möchte ein bisschen die Frage stellen.
0:06:15–0:06:22
Die Psychologie ist natürlich Thema, aber die klinische Psychologie, sollte die nicht vielleicht auch Thema sein?
0:06:22–0:06:27
Wenn man interdisziplinär mit diesen Fragen der künstlichen Intelligenz umgeht.
0:06:28–0:06:34
Der Hintergrund ist der es geht ganz viel eben auch um Lernen. Ja, und die Art des Lernens, das werde ich kurz beschreiben.
0:06:34–0:06:40
Die ist jetzt gerade noch relativ brachial, ja gewitzt, aber jetzt nicht unbedingt empathisch.
0:06:41–0:06:46
Diese Maschinen werden getrimmt. Das ist jetzt kein moralisches Thema, es ist einfach so, wie es gemacht wird.
0:06:47–0:06:56
Und gleichzeitig gibt es ja gerade in der klinischen Psychologie unglaublich viele Bereiche, die sich intensiv auch mit Lernen und Entwicklungsfragen.
0:06:59–0:07:05
Auseinandergesetzt haben und in der klinischen Psychologie, gerade wenn man an diese,
0:07:05–0:07:17
hollywoodeske Idee von künstliche Intelligenz denkt, also diese dieses Thema des Sich selbst Bewußtwerdens kennt und Beijings aus künstlicher Intelligenz.
0:07:18–0:07:31
Da möchte ich den Begriff des Selbst, der jetzt auch seit über 100 Jahren in der Psychotherapie eine Rolle spielt, so ein bisschen vorstellen, weil ich glaube, das selbst ist genau dieser,
0:07:33–0:07:37
springende Punkt, der Holy Grail, dass keine Ahnung, wie man es nennen möchte,
0:07:38–0:07:51
was dann wirklich diese Riesenhürde ist, wo künstliche Intelligenz, die heute zwar und das ist eine Hypothese von mir als Intelligenz vermarktet wird, aber die noch sehr nah am Maschinenlernen dran ist,
0:07:52–0:08:01
dass es dann wirklich um so eine Form von sich selbst Erkennendes und Spürendes, was Wesenshaftes werden könnte.
0:08:01–0:08:06
Und da denke ich, spielt es selbst in der klinische Psychologie eine große Rolle. Und in der Entwicklung,
0:08:08–0:08:14
des jeden Menschen entsteht etwas, was wir selbst nennen. Da möchte ich eigentlich drüber sprechen.
Florian Clauß
0:08:14–0:08:15
Ein Selbstbewusstsein.
Micz Flor
0:08:16–0:08:19
Genau das ist interessant, weil Selbstbewusstsein ist halt so ein Stichwort.
0:08:19–0:08:29
Das sagen wir im Deutschen. Das hat ja ein bisschen was damit zu tun, dass wir stolz sind auf das, was wir tun, dass wir unser Licht nicht unter den Scheffel stellen, wie es so schön heißt.
0:08:30–0:08:42
Im Englischen ist es halt, gibt es halt diesen Begriff der self awareness, den man im Deutschen gar nicht, also dieses Selbst Gewahrsein, das gibt es.
0:08:42–0:08:49
Also wenn wir von Bewusstsein sprechen und Awareness sprechen und oder Consciousness sprechen, dann im Deutschen.
0:08:51–0:09:02
Jetzt zieht es gerade mein Körper so zusammen. Wahrscheinlich, weil ich das Wort sentient, nämlich Empfindungsfähigkeit oder empfindungsfähig genannt habe.
0:09:03–0:09:11
Weil das auch nur so eine Nebenspur ist, die ich glaube, die völlig unterschätzt wird, ist, was das Körperliche in Lernprozessen für eine Rolle spielt.
0:09:13–0:09:16
Also wir sind es ein bisschen absurd. Wir sind mitten im Dunkeln. Gerade.
0:09:17–0:09:21
Mir bleibt manchmal die Luft weg. Ich kann gar nichts sehen.
0:09:22–0:09:36
Und die Analogie dazu? Die Assoziation wäre vielleicht wirklich eher dann so eine, so eine sich gewahr werdende künstliche Intelligenz, die erst mal so im Dunkeln steht, sie irgendwie gar nicht so genau die Welt berühren kann oder erfassen kann.
0:09:38–0:09:45
Ich möchte vorneweg auch noch ein Literaturtipps zu dem Thema abgeben.
0:09:46–0:09:50
Habe ich dir Flo zum Geburtstag geschenkt?
0:09:50–0:09:54
Können wir auch vielleicht irgendwann mal besprechen als Folge von Dan Simmons Ilium.
0:09:55–0:10:09
Da geht es also. In einem sehr langen, sehr komplexen Buch, finde ich, geht es ganz großartig eigentlich um diese Frage von künstlicher Intelligenz, Menschsein und Körper sein und wie auch immer.
0:10:10–0:10:13
Weil in diesem Buch unglaublich viele unterschiedliche Formen von.
0:10:16–0:10:28
Sag ich mal Wesen, eben auch Menschen dargestellt werden. Es gibt normale Menschen, es gibt Übermenschen, es gibt aber auch zum Beispiel diese Mora wächst die halt eher so Roboter sind aber die wie ein eigenes,
0:10:29–0:10:33
Gott man meine Brust macht manchmal zu.
0:10:34–0:10:45
Denn zumindest geht es dann auch um diese Morawags. Das sind im Prinzip Roboter, die aber völlig autonom sich selbst herstellen oder wie auch immer, dass weiß man gar nicht genau.
0:10:46–0:10:50
Die. Und dann gibt es auch zwei der Hauptperson.
0:10:50–0:11:00
Das eine ist ein Mann. Mut und Aufruhr auf Io, die beide sich über die Shakespeare Sonette auslassen und darüber reden.
0:11:00–0:11:09
Und der eine möchte, ich weiß nicht mehr wie rum, der andere möchte den anderen davon überzeugen, dass Shakespeare es wert ist, sich damit auseinanderzusetzen.
Florian Clauß
0:11:09–0:11:17
Ich glaube, der eine bringt hier die verschwunden, die die verlorenen Zeit,
0:11:19–0:11:25
eins als sein Objekt of war, der sich die ganze Zeit mit beschäftigt.
0:11:26–0:11:32
Und Shakespeare ist natürlich die höchste Klasse von dem und die sind die ganze am struggeln.
0:11:33–0:11:43
Das ist also diese Szenen sind so absurd wo der dann von diesen ein Kilometer großen Oktopus flieht, während er dann noch versucht irgend so eine.
0:11:44–0:11:52
So eine Textanalyse von Shakespeare dann nebenbei zu machen und er ist kurz davor, halt von einem Oktopus dann verschluckt zu werden.
0:11:52–0:11:58
Aber schafft es dann auch, die Textanalyse fertig zu machen, in der Wurst dann halt auszuweichen?
Micz Flor
0:11:59–0:12:01
Und das ist nämlich genau die beiden, die,
0:12:03–0:12:12
die bringen dann auch so einen körperlichen Aspekt rein. Und natürlich hat man dann, das ist ja auch ein Thema der künstlichen Intelligenz, wie sind meine Interfaces mit der Welt, was kann ich sehen?
0:12:13–0:12:17
Kann ich zum Beispiel mit der Kamera Bilder sehen oder kann ich einfach nur Texte lesen?
0:12:17–0:12:28
Und bei denen ist es so, dass der Mann Mut der ist dann so ein sehr ungelenker, großer, schwere Roboter, der in einem genauso ungelenken, großen, schweren Raumschiff liegt,
0:12:29–0:12:36
der sich dann mit den Sensoren oder der Sensorik, sag ich mal, dem sensorischen System des Raumschiffs verbindet, um dann,
0:12:37–0:12:44
quasi durch das Raumschiff hindurch die Welt zu sehen, durch die das Raumschiff fliegt, was er wiederum lenkt.
0:12:45–0:12:55
Und dann hat er diese Crashlandung. Das ist glaube ich genau diese Szene und danach muss er sich dann irgendwie durch seinen Kollegen Orfurio so ein bisschen sensorische Zeit pumpen.
0:12:56–0:13:10
Schaltet sich dann bei dem ein, um die Welt wahrzunehmen. Das sind dann natürlich ganz andere elektromagnetische Frequenzen, die OFU hat, aber er kann das dann irgendwie so extrapolieren, um dann überhaupt wieder in der Welt zu sein und damit arbeiten zu können.
0:13:10–0:13:14
Und das ist natürlich auch ein großes Thema in der künstlichen Intelligenz.
Florian Clauß
0:13:14–0:13:16
Das Learning Pattern.
Micz Flor
0:13:17–0:13:23
Vor allen Dingen aber glaube ich die Wahrnehmung. Was kann ich sehen? Was?
0:13:26–0:13:36
Also wie ich jetzt drauf kam. Also ich habe das natürlich immer wieder Thema, ich habe Psychologie studiert, da hört man irgendwann von Weizenbaum das Eliza Programm.
0:13:36–0:13:42
Das ist im Prinzip Code, der versucht anhand von einem,
0:13:45–0:13:51
Non directive Psychotherapie Approach, der eher über Fragen funktioniert, versucht das zu simulieren.
0:13:51–0:13:55
So eine psychotherapeutische Sitzung, du tippst was und er antwortet.
0:13:55–0:14:05
Und das war natürlich dann auch so 1966 Spielerei mit dieser Idee vom Turing Test oder das Imitation Game, wie Turing selber gesagt hat,
0:14:06–0:14:11
wo man halt feststellen könnte, ob eine Maschine in der Lage ist.
0:14:11–0:14:25
Ich sag es mal so komisch den Menschen zu imitieren oder andersherum gedeutet den Menschen zu täuschen, der dann nicht mehr in der Lage ist, das, was die Maschine mitteilt, über Text oder wie auch immer,
0:14:25–0:14:28
von dem zu trennen, was Menschen mitteilen.
0:14:28–0:14:42
Und das ist halt genauso ein Schritt, glaube ich, der gerade in diesem Chat CPT passiert ist, wo OpenAI jetzt so eine Art Game Changer online gestellt hat,
0:14:43–0:14:44
wo man einfach chatten kann.
0:14:45–0:14:50
Man kriegt auf jede Frage eine Antwort und.
0:14:52–0:15:00
Ich habe interessante Sachen darüber gelesen. Da hat jemand mal gefragt Einfach so Social Media, Was war für euch gut?
0:15:01–0:15:03
Es war ein besonderes Erlebnis mit diesem Chatbot.
0:15:04–0:15:06
Und eine Person meinte Ich habe mich getraut.
0:15:07–0:15:15
Also Doktorandin. Ich habe mich getraut, Checkpoint Fragen zu stellen, die ich meinem Supervisor nicht hätte stellen wollen.
0:15:16–0:15:29
Und der Supervisorin? Ich weiß es nicht. Und das fand ich total interessant, Weil du hast halt bei diesen Antworten, die Antworten haben so eine bestimmtes, so ein Konferenz, die kommen halt mit viel Nachdruck.
0:15:30–0:15:36
Und dass dann jemand wirklich das Gefühl hat, sich lieber einen Chatbot mit Charme besetzten Fragen zu wenden,
0:15:37–0:15:47
Sachen, die man eigentlich wissen müsste, wo man trotzdem Hilfe braucht, dass man da irgendwie an den Chatbot geht und nicht an seinen Supervisor oder Supervisorin, das ist ja auch irgendwie interessant.
0:15:48–0:15:51
Dann habe ich mich selber hingesetzt, habe dann irgendwie gedacht.
0:15:54–0:16:01
Also auch mal ausprobieren. Und bei mir kam jetzt aber nichts wirklich raus, was mich total beeindruckt hätte.
0:16:01–0:16:12
Ich habe dann irgendwie gedacht ach, mach ich mal irgendwie sowas, weil der Typ jetzt, da geht es halt um Text, das heißt diese, diese, dieses Modell oder diese.
0:16:12–0:16:16
Dieser Datensatz hat unglaublich viel Text gelesen.
0:16:16–0:16:29
Da habe ich gedacht, das ist ganz sicher, dass der natürlich auch so Fabeln kennt und habe dann halt so Fragen gestellt Was wäre eine psychoanalytische Deutung von es, ob es Fabel mit dem Fuchs und dem Bär?
Florian Clauß
0:16:30–0:16:32
Es ist, was? Es.
Micz Flor
0:16:32–0:16:40
Das sind, äh. Das sind so kurze Fabeln. Kennst du vielleicht auch so der, der, der Löwe, das ist so der Löwe. Und der Fuchs zum Beispiel.
0:16:41–0:16:43
Der Löwe? Fragt ein Tier den Dachs.
0:16:46–0:16:49
Rieche ich gut. Und der Dax sagt so Orly, du stinkst.
0:16:50–0:16:57
Und dann frisst er den Dax auf. Dann fragt er. Keine Ahnung. Storch, rieche ich gut? Störe ich? Du riechst. Du riechst super.
0:16:58–0:17:03
Dann frisst er auch den Storch auf. Und dann fragt ein Fuchs Rieche ich gut? Und dann sagt der Fuchs Ich habe leider Schnupfen.
0:17:04–0:17:09
Also so solche solche kurzen Fabeln sind es, und die sind alle immer relativ offen.
0:17:09–0:17:18
Da gibt es dann so bestimmte Deutungssätze, die manchmal auch drunter stehen, so von wegen keine Ahnung, Guides, öffnet dir nicht die Welt oder solche Sachen.
Florian Clauß
0:17:19–0:17:27
Sie würde in der Psychotherapie eingesetzt oder gar nicht. Das wäre jetzt nur dein dein, denn dein point of interest.
Micz Flor
0:17:22–0:17:24
Nee, gar nicht. Das war einfach meine.
0:17:27–0:17:36
Und dann kommt halt was raus, wo du denkst So, das ist wie so ein Neuntklässler, der halt so schummelt, also dann kommt halt so was.
0:17:37–0:17:40
Egal ob es deutsch oder englisch ist. Es war interessanterweise auch sehr, sehr ähnlich.
0:17:41–0:17:53
Also ich hätte da erwartet, dass da vielleicht auch Unterschiede drin sind. Aber Deutsch und Englisch waren gleich, so dass ich eher dachte, dass es hin und her übersetzt wird, anstatt dass es unterschiedliche Datensätze sind zum Lernen.
0:17:53–0:18:02
Und da standen halt so Sachen. Ja, man könne die Fabel von Äsop und dem Bären auch psychoanalytisch deuten,
0:18:03–0:18:14
und als eine Metapher sehen auf die unbewussten und vorbewussten Ängste und Wünsche, die man sich nicht traut zu sagen, wenn halt irgendwelche Gemeinplätze so reingeklebt.
0:18:15–0:18:16
Aber wie auch schon.
0:18:18–0:18:23
Diese Doktorandin erlebt hat mit einer unglaublichen so sehr auf Konferenzen.
0:18:23–0:18:33
Das klingt halt wirklich erst mal so wie so ein Neuntklässler, der sich halt irgendwie ganz schnell noch irgendwas runterschreibt, die Sätze ein bisschen umbaut, um die Hausaufgaben abgeben zu können.
0:18:35–0:18:41
Und das war bei unterschiedlichsten Sachen so, dass ich das Gefühl hatte, dass das oft.
0:18:43–0:18:48
Gut zusammengesetztes Muster war aber nicht unbedingt.
0:18:52–0:19:00
Keine Ahnung. Also bei dem Dali Ding, da hatte ich dann immer noch so das Gefühl, dass wirklich was neues passiert. Auch wenn man wusste, es wird alles gemischt und berechnet.
0:19:00–0:19:12
Man kannte alle Stile, man hat ja auch immer Götz seine wiedererkennen, aber es war trotzdem was Neues und da hatte ich so nicht das Gefühl bei dem, was ich gesehen habe, dass es wirklich was Neues bringt und.
0:19:15–0:19:16
Jetzt habe ich den Faden ganz kurz.
Florian Clauß
0:19:16–0:19:22
Aber ich finde direkt die Beispiele, die ich auch von Tweety mitbekommen habe.
0:19:23–0:19:29
Ich glaube, dass es durch diese doch irgendwie abstraktere Funktion des Textes,
0:19:31–0:19:41
viel mehr ein Tool, was sich in den Alltag integrieren lässt, als es diese ganzen Bildbearbeitung da ist, halt dieses schöpferische Neue usw..
0:19:41–0:19:54
Ich meine, das klingt jetzt dann auch irgendwie eine Industriereife und kann natürlich dann halt in irgendwelchen Fotoprogramme usw. direkt auf deine auf auf dem Handy zur Kamera laufen. Wie auch immer.
0:19:55–0:20:04
Aber die Idee hat glaube ich schon ganz konkret eine Funktion, die du sofort adaptieren kannst. Du hast das Beispiel mit dem Jungen.
0:20:05–0:20:11
Ja, das war ja auch der erste Aufschrei. Jetzt müssen die Kinder nicht mehr ihre Hausaufgaben machen. Du kannst ja auch so einen Mut mitgeben.
0:20:11–0:20:20
Ich kann nur sagen Bitte schreib mir jetzt hier einen Aufsatz über über Goethes Farbenlehre, aber im Stil von einen 12-jährigen Schüler.
0:20:21–0:20:28
Und dann kriegst du es halt so. Das ist ja irgendwie, das ist ja super tauglich, oder? Es ist jetzt ein anderes Beispiel von so einem, von so einem.
0:20:29–0:20:36
Ich glaube, es war so ein irgendwie so ein Typ aus der Baumschule oder so was. Oder der Gärtner. Ja, genau das.
Micz Flor
0:20:34–0:20:44
Ja, das habe ich auch gelesen. Wo einer sagt ich bin gerade Mentor für so einen Jungen, der hat dann eine eigene Landschaft aufgemacht und ich habe jetzt so was gebaut, wo ich das irgendwie zusammen pipe.
0:20:44–0:20:54
Und dann pfeife ich seine Fragen und dann hat so ein beispielhaften Satz so von wegen dir, Sir, aber liegt schon vor mir. Dann very capable of the innovation.
0:20:55–0:20:57
Aus dem Ausgangstext Was er gemerkt hat, ist gar nicht.
0:20:59–0:21:10
Der hat, der hätte das so nie schreiben können. Und der Mentor hat dann ganz stolz berichtet, dass dann sein Zögling quasi 220.000 $ Kontrakt bekommen habe.
0:21:11–0:21:13
Und man guckt sich das an und denkt halt so.
Florian Clauß
0:21:14–0:21:28
Äh, ja, aber es sind halt solche, solche Sachen, die werden jetzt so quasi automatisiert erledigt, weil es total praktisch ist, dass diese, diese anschreiben, die Formulierungen usw.
0:21:28–0:21:34
Kannst du einfach hinwerfen und zu sagen gib mir mal einen Text raus und du sparst einfach Zeit.
0:21:34–0:21:36
Ich finde es als Vorstellung unglaublich.
Micz Flor
0:21:38–0:21:42
Ja, das stimmt. Also das ist ja auch so, dass.
0:21:44–0:21:57
An Universitäten ist ja auch ein großer Aufschrei. Da wurde dann auch getestet anhand von Personal, die halt irgendwie studentische Arbeit retten müssen, dass die gemeint haben,
0:21:58–0:22:09
sie könnten nicht wirklich einzelne Absätze oder kurze Texte identifizieren, die jetzt durch AI, also Open Air,
0:22:10–0:22:13
hergestellt wurden oder von Studierenden kamen.
0:22:13–0:22:17
Das ist natürlich dann eher so der Fall, sag ich mal weicheren.
0:22:20–0:22:28
Weiteren wissenschaftlichen Arbeiten, die auch von meinen geprägt sind, also die psychoanalytische Interpretation von Elisabeth Observ.
0:22:29–0:22:36
Das hat nicht geklappt, auch wenn ich die Psychoanalyse keine harte Wissenschaft ist und für ganz harte Wissenschaft theoretische Physik.
0:22:37–0:22:47
Habe ich auch irgendwo gelesen, dass eine Wissenschaftlerin eine ganze Reihe von Texten hat erstellen lassen, wo sie meinte, dass.
0:22:48–0:22:53
Fatale ist halt, die klingen alle erstmal sehr plausibel, sind aber sachlich falsch.
0:22:53–0:22:56
Das heißt, es klingt dann wie eine Publikation.
0:22:58–0:23:07
Und die Frage ist natürlich, wie viel von deiner Publikation kannst du jetzt schreiben, die dann natürlich nicht erkannt wird, wenn wenn.
0:23:07–0:23:11
Du diese Dienste nutzt. Die halt, heißt es manchmal im Englischen.
0:23:12–0:23:15
Also wenn es Fälschungen sind oder Kopien Kopien sind.
0:23:17–0:23:21
Und gleichzeitig. Ist halt falsch.
0:23:21–0:23:27
Auch da wieder Mit viel Konferenz wird es halt irgendwie in die Welt gehauen, so dass man es halt erst mal glaubt.
0:23:28–0:23:30
Hab ich auch eingesehen, der halt irgendwie meinte.
0:23:32–0:23:43
Der hat gefragt, was kriegt man, wenn man von zehn 10 % abzieht von dem was man dann hat, 10 % wieder dazuzählt?
0:23:44–0:23:57
Und weil die falsche Antwort von Zschäpe die ist es, wenn du von zehn, also wenn du von 100 % 10 % abziehst, hast du 90 %. Wenn du dann 10 % wieder zu fügst, hast du natürlich wieder 100 %. Also ist das Ergebnis das Gleiche.
0:24:00–0:24:06
Ähm, kam halt irgendwie so die Intervention von dem, der das eingegeben hat, wieder.
0:24:07–0:24:08
Nein, das Ergebnis ist nicht richtig.
0:24:09–0:24:12
Und dann kam die Antwort. Natürlich ist das Ergebnis nicht richtig.
0:24:14–0:24:18
Weil wenn man nämlich bei 90 % 10 % drauf nimmt und hat dann ewig so weiter geredet.
0:24:18–0:24:31
Aber du merkst halt irgendwie, da ist so ein Satz, so eine Fassade, so was Fassade wäre so, als ob im Hintergrund jemand so ein bisschen fanatisch nach nach einer Lösung sucht, während er nach vorne raus am Radiomikro.
0:24:31–0:24:36
Die die Leute unterhalten muss, weil er darf jetzt nicht mehr wegschauen. Das.
0:24:38–0:24:40
Aber das ist halt. Jetzt sind wir wieder in der lauten Straße.
Florian Clauß
0:24:41–0:24:50
Vielleicht können wir jetzt hier einfach gucken, dass sich das wieder staut und dann kann ich einen Abstecher wieder in die Wuhlheide machen,
0:24:51–0:24:58
und dann ein bisschen abseits von dem Lärm.
0:25:00–0:25:01
Okay.
Micz Flor
0:25:03–0:25:13
Und damit es irgendwie so ganz gut eingefangen wird. Müssen wir glaube ich schon ganz kurz mal durch dieses Konzept von Lernen durchgehen.
0:25:13–0:25:21
Weil das ist auch so ein eigentlich Thema. Eigentlich habe ich das Gefühl, je mehr man da reinguckt, ist es eine Frage von Definition.
0:25:23–0:25:31
Also ich glaube, dass das das sowohl das Wort künstlich als auch das Wort Intelligenz, das Sinnhafte, was die Menschen darunter verstehen.
0:25:31–0:25:38
Das ist falsch. Ich glaube, von vielem, was ich so gelesen habe, ist es halt irgendwie einfach eine andere Form von Maschinen lernen.
0:25:44–0:25:48
Bei diesen Lernprozessen, für was wir künstliche Intelligenz nennen.
0:25:48–0:25:55
Da gibt es dann mehrere Unterscheidungen. Zum Beispiel ist es eine supervidierte oder nicht zu lernen.
0:25:55–0:26:04
Das ist ganz einfach erklärt, dass man zum Beispiel so was wie ein Textwolke bereitstellt, in der gelernt wird.
0:26:05–0:26:17
Man kann dann aber dem Algorithmus, der das alles analysiert, irgendwie sagen So, jetzt gebe ich dir mal so und so viel Megabyte Sport und jetzt gebe ich dir so und so viel Megabyte Musik.
0:26:18–0:26:28
Das heißt, da ist eine Form von Supervidieren, in der das Material vorbereitet wird und nicht supervidiert ist. Einfach loslassen.
0:26:30–0:26:39
Und auch da kann man einfach. Mit unterschiedlichen algorithmischen Fragestellungen kann man dann natürlich so eine künstliche Intelligenz,
0:26:40–0:26:46
so ein Lernprozess begleiten, dass man zum Beispiel so was sagt wie bei Texten?
0:26:50–0:26:58
Rate bitte jedes Mal das erste Wort des nächsten Satzes, wenn das erste Wort des ersten Satzes heute oder gestern ist.
0:26:59–0:27:05
Und dann einfach solche stochastischen Zusammenhänge zu finden, die dann später eben genutzt werden, um.
0:27:11–0:27:15
Das Gelernte quasi wieder anzuwenden. Nee, doch nicht links.
0:27:16–0:27:19
Weiter ist es eine Sackgasse. Die Kiwi. Hier links.
Florian Clauß
0:27:20–0:27:24
Ich war schon froh, dass ich jetzt an dem Punkt sind, wo wir endlich die Straßen verlassen können.
0:27:25–0:27:33
Aber dem war nicht so. Also sag nochmal das Wort, was du dazu gesagt hast, eben diese in Bezug auf algorithmisch.
Micz Flor
0:27:34–0:27:39
Es gibt das supervidierte Lernen und das nicht Super Wide Superweissen nonstop was im.
Florian Clauß
0:27:36–0:27:37
Super wie dir.
0:27:40–0:27:48
Also okay, das ist jetzt wirklich so! Also so quasi so ein Fachwort aus der Traininggeschichte von von Machine Learning.
Micz Flor
0:27:46–0:27:48
Genau. Machine Learning.
Florian Clauß
0:27:48–0:28:02
Und es gibt ja so diese hart Gesottenen, die sagen, es gibt keine künstliche Intelligenz, es gibt halt nur ein Learning, was dann eine gewisse Ausprägung bekommt. Und wie du sagst, eben jemand.
0:28:02–0:28:04
Je mehr Material, desto,
0:28:07–0:28:15
ja desto besser das Ergebnis. Je mehr Trainingseinheiten, desto eindeutiger oder desto spezifischer wird es. Denn.
0:28:15–0:28:21
Das sind ja so diese, diese Arten, wie trainiert oder wie dann solche Produkte dann entstehen.
Micz Flor
0:28:22–0:28:30
Genau. Und das Interessante ist ja dann oft, dass das Interessante für die weitere Forschung oft nicht was klappt, sondern was nicht klappt.
0:28:31–0:28:32
Das soll dann zum Beispiel.
0:28:35–0:28:43
Bei Bilderkennung, also solchen Sachen. Dann hast du 100.000 Ampeln, die du gerendert hast und dann geht eine Ampel nicht.
0:28:43–0:28:46
Und wird dann keine Ahnung. Wird dann als.
0:28:49–0:29:03
Das ist für Saurier erkannt oder was weiß ich. Es ist halt manchmal wirklich so, dass Fehler entstehen, wo man auch merkt, in dem Moment, wo diese diese von von dem Material abstrahierte Netzwerk an Information, dass das halt.
0:29:06–0:29:13
Dass das halt so auch nicht mehr verstanden werden kann. Was man ja auch gemacht hat, dass es halt mit dem Super nicht zu lernen.
0:29:13–0:29:17
Du hast zum Beispiel bei vielen Bilder kein Programm, dann nehmen die also Stockfotos.
0:29:17–0:29:24
Stockfoto ist halt voll von irgendwelchen hübschen Tomaten, hübschen Menschen, hübschen Wohnungen und so was.
0:29:24–0:29:35
Das heißt, das ist Trainingsmaterial. Und nicht von ungefähr erkennt man dann, dass diese entstehenden Netzwerke einen eingebauten Bias haben,
0:29:36–0:29:43
dass diese scheinbare Vorliebe haben für Palmen und blaues Wasser gegenüber all dem anderen Schaum oder der auch noch Wasser ist.
0:29:43–0:29:57
Und und diese Bias wiederum, die sollen dann irgendwie teilweise nachträglich rausgerechnet werden, sodass man diese Millionen, die man da reingesteckt hat, um das zu trainieren, weil das ist halt auch noch eine ganz wichtige Frage finde ich was?
0:29:58–0:30:08
Also was auch dann noch mal den Mensch von diesen Netzwerken unterscheidet Wie viel Energie brauche ich überhaupt, so was herzustellen und aufrecht zu erhalten? Wäre es nicht interessanter.
0:30:10–0:30:23
Zu gucken, wie energieeffizient man das machen kann und das als Indikator für Erfolg zu nehmen, als die Erkennungsraten oder erfolgreichen Turingtests?
0:30:27–0:30:32
Diese Bikes, die entstehen natürlich auch im Super Weiß Learning.
0:30:32–0:30:35
Zum Beispiel war es so bei dem CTBT, da kann ich einen Link machen.
0:30:35–0:30:40
OpenAI hat da selber einen Artikel drüber geschrieben, wo das drin vorkommt, dass zum Beispiel die,
0:30:43–0:30:57
dieses Modell, das ist noch der nächste Schritt reinforced oder non reinforced learning. Also wird einfach das losgelassen und dann kriegt es auch ein Feedback, dann kriegt es halt quasi gesagt gutes Ergebnis, nicht so gutes Ergebnis.
0:30:57–0:31:01
Und das wird dann wieder in dem neuronalen Netzen mit abgebildet.
0:31:01–0:31:15
Und da und da war es so, dass anfangs bei diesem ZGP längere Sätze von den Leuten als positiver bewertet wurden, was irgendwie intelligenter klang oder wahrhafter Klang.
0:31:15–0:31:25
Das heißt auch, du kriegst dann auch über über Feedbackschleifen die Menschen wieder reinbringen, die die Ergebnisse eigentlich verbessern soll. Kriegst du auch wieder Beißer eingebaut?
0:31:26–0:31:29
Das ist ja auch noch mal ganz wichtig. Und.
0:31:33–0:31:40
Dann gibt es noch die Möglichkeit, wenn man zum Beispiel Non Super Learning einfach macht.
0:31:41–0:31:47
Da könnte man sich auch vorstellen, dass da trotzdem relativ komplexe Fragestellungen bearbeitet werden könnten.
0:31:48–0:31:55
Man könnte sich zum Beispiel vorstellen, was ein Schachspiel. Und du siehst nur diese Position und weißt Weiß muss jetzt ziehen.
0:31:56–0:32:05
Und du kennst aber die Regeln des Schachs gar nicht. Aber ähnlich wie bei diesem Bild Generation generieren.
0:32:06–0:32:08
Wenn ich über dem Bild generieren, kann es halt sein.
0:32:08–0:32:20
Bist du trotzdem einfach in der Summe der Position auf dem Schach und der Bilder, die dir gegeben werden. Verstehst du? Wenn ich jetzt hin ziehe, dann führt das öfter zum Sieg.
0:32:21–0:32:27
Bei Schach ist es jetzt vielleicht schwierig, weil man da unglaublich viele komplexe Situationen herstellen kann auf dem Feld.
0:32:28–0:32:32
Aber es gibt immerhin auch einfach eine Möglichkeit zu sagen okay, ich habe keine Ahnung, worum es hier geht.
0:32:32–0:32:42
Ich weiß nur, wenn jetzt dieses Feld mit dem besetzt ist, dann ist die Wahrscheinlichkeit, das hinten raus eine Belohnung kriegt, deutlich größer.
0:32:43–0:32:47
Und das ist dann wirklich ohne Model.
0:32:47–0:32:53
Also Model heißt halt quasi. Man kann natürlich auch am Computer erst mal Schach beibringen und die Regeln geben.
0:32:53–0:33:00
Das heißt, er kann nur Züge machen, die da drin in dem Regelheft abgebildet sind. Und das ist dann.
0:33:03–0:33:03
Mit einem Model.
Florian Clauß
0:33:05–0:33:17
Interessant und das sind so verschiedene Methoden, um halt zu einer gewissen äh. Also um, um die. Um das. Um die Maschine zu trainieren.
Micz Flor
0:33:17–0:33:27
Und da gibt es halt. Ich weiß gar nicht, ob das auf YouTube auch ist oder nur irgendwie auf Netflix oder anderem, aber es gibt eine sehr schöne Doku über diese Go, dieses,
0:33:28–0:33:33
die und in der Doku ist ist es so da bei dem Training dieses Systems war es ja so,
0:33:34–0:33:47
dass zuerst wurden die Regeln vorgegeben und es hat sich Spieler angeschaut und dann später war es aber so, dass zum Ersten Mal erfolgreich auch zwei künstliche Intelligenz Systeme gegeneinander gespielt haben.
0:33:48–0:33:55
Und ich glaube sogar im letzten Schritt war es so, dass die Regeln nicht mehr vorgegeben wurden, sondern anhand des Wissens um,
0:33:56–0:34:06
schon gespielter Partien und dem Spielen eigene neue Partien die Regeln aus dem Spiel erschlossen wurden.
Florian Clauß
0:34:06–0:34:07
Er Wahnsinn.
Micz Flor
0:34:07–0:34:16
Und in der Doku, in der glaub ich von drei Spielen eins von dem Go Meister gewonnen wird, die zwei anderen von der Maschine.
0:34:17–0:34:23
Da gibt es doch so einen Punkt. Weil die zwei Moderatoren, eine Moderatorin, ein Moderator, die haben halt wie so ein,
0:34:25–0:34:37
wir kennen das halt eher vom Schach, weil Go ist ja nicht so populär, aber nur so ein großes Go Brett und dann werden halt immer diese Steinchen abgebildet und die reflektieren, was könnte das sein, was hat der jetzt vor und so und da gibt es halt dann eine Situation,
0:34:37–0:34:39
die echt sehr schön zeigt,
0:34:40–0:34:43
dass dann doch auch da was neues in die Welt kommt.
0:34:43–0:34:47
Weil in diesem Go Board gibt es dann immer so Inseln von Stein.
0:34:48–0:34:52
Ja und auf einmal legt dann die Maschine, legt dann den Stein so ins Nichts hinein.
0:34:54–0:35:03
Plump, der liegt dann so und du merkst ja, bei den beiden, die moderieren, ist ja erst mal so stille, hä?
0:35:04–0:35:08
Und dann großes Lachen. Oh, ist halt doch nur eine Maschine. Weiß nicht, was sie tut.
0:35:09–0:35:20
Und dann stellt sich aber raus, dass das halt so der geniale Zug war, wo das Ganze dann kippt, dass dieser eine Stein dann auf einmal eben das Feld beherrscht und so viel anderes nicht mehr zulässt.
0:35:21–0:35:32
Und das fand ich so ganz interessant, weil das war wohl so ein Punkt, wo wirklich auch die Experten Experten gesagt haben, das ist jetzt kein menschlicher Zug, der kommt halt, ist es der Siegerzug von der Maschine?
Florian Clauß
0:35:32–0:35:41
Ich meine, bei den ganzen trainierten Maschinen ist es ja so, dass die am besten in so bauen det Kontext funktionieren.
0:35:41–0:35:47
Deswegen ist dann halt irgendwie Schach und Go so ein beliebtes Feld, weil es halt ein klares Regelset ist.
0:35:47–0:35:51
So ein bisschen irgendwie, wie wie,
0:35:53–0:36:02
automatisiertes Fahren auf der Autobahn sehr einfach ist, weil du hast dann eine ganz klare Markierung, an denen kannst du dich orientieren und der Rest ist dann halt Berechnung.
0:36:02–0:36:14
Und das war's jetzt dann immer so, dass ich sag mal, die Herausforderung ist das in Form von wie kriegt man das jetzt irgendwie nicht geboxt,
0:36:15–0:36:26
wie kriegt man, wie kriegt man so dass man tatsächlich das Gefühl hat da so eine Form von Selbstbewusstsein, weil so eine Go Maschine ist ja nicht selbstbewusst, sondern eine Maschine ist halt irgendwie so,
0:36:27–0:36:31
ja, also kann halt irgendwie gut Go spielen und ähm.
0:36:32–0:36:46
Aber ich glaube das ist so nochmal so dieser der Referenzraum, wenn der sich dann halt so quasi auf so eine Welt, die dann halt sehr divers ist, wenn sich das dann halt so erweitern kann, das ist ja das Spannende.
Micz Flor
0:36:48–0:36:52
Ja, und das ist halt auch. Du kennst das Spiel Pong.
0:36:53–0:37:01
Wenn man zum Beispiel das also rechts und uraltes Spiel rechts und links zwei weiße Balken hoch und runter war ein Analogstick.
0:37:01–0:37:05
Also man konnte dann auch ganz schnell hoch oder runter machen und,
0:37:06–0:37:16
dazwischen ein weißer Würfel, der dann wieso Tennis, der hin und her fliegt und bei wem er dann hinten durchfliegt, der nicht zurück abwehren kann, der verliert einen Punkt oder einen Punkt dazu.
0:37:17–0:37:20
Und da ist es zum Beispiel, was ich vorhin meinte Wenn du ein Schachbrett dir anschaust,
0:37:22–0:37:34
da hast du ein Regelwerk, was die Maschine weiß oder nicht weiß, aber man kann trotzdem einfach auf das Bild gucken und kann ein Urteil fällen und kann dann sagen okay, das wäre ganz gut, dass wir ganz gut das Risiko.
0:37:34–0:37:48
Oder bei Pong zum Beispiel, da könntest du, wenn du zwei Bilder hast und du weißt, sind eine halbe Stunde halbe Sekunde auseinander, dann könntest du halt, wenn du wenn du ein.
0:37:49–0:37:55
Ein algorithmisches Wissen um das Spiel hast, könntest du vorher errechnen, wo diese Ball hinfliegt?
0:37:56–0:38:02
Wenn du nur ein Bild siehst, dann weißt du nicht, ob das von dir in deine Richtung fliegt und wegfliegt.
0:38:03–0:38:11
Du weißt nicht, ob es gerade fliegt, ob es schnell fliegt. Das heißt, du kannst dann anhand von einem Bild, so einem einfachen Spiel wirklich nicht viel sagen.
0:38:13–0:38:24
Und das ist halt immer der Punkt. Du musst dann halt gucken, welche Aufgabe stellst du diesem Experiment, sag ich mal, und dementsprechend musst du dann halt ein Modell auswählen, was halt auch gut.
0:38:25–0:38:33
Die Problemstellung passt, was jetzt gerade eben auch ein großes Thema ist, eben auch mit KI für Fahrzeuge und so.
0:38:33–0:38:48
Das ist halt so ein prozedurales Umfeld, was sich halt permanent auch verändern kann und was eben aber auch in sich selbst keinen Abbruch. Wie du sagst Box abgeschlossen, Raum hat, in dem etwas immer wieder durchgespielt wird, sondern was sich auch wieder verändert hat.
0:38:48–0:38:56
Wir sind dann schon der Halt, der neue Pfade hat und das Wissen was die AI da lernen muss, ist nicht.
0:39:00–0:39:09
Also es fängt jedes Mal wieder von null an. Wo man da wirklich so das Gefühl hat, dass es in dem Moment vielleicht sogar besser bot zu schreiben, als KI zu trainieren.
0:39:10–0:39:17
Weil du musst Dinge in Anführungszeichen verstehen, interpretieren, abwägen und dann Entscheidungen fällen.
0:39:18–0:39:25
Und diese stochastischen Modelle von vielen Kids, die sind da nicht unbedingt die besten Möglichkeiten.
0:39:27–0:39:34
Was mich halt auch noch in eine andere Sache zurückführt. Was ich ganz spannend finde, ist, dass die KI jetzt so abgeht.
0:39:35–0:39:40
Das war für manche vielleicht klar, aber es ging jetzt enorm schnell.
0:39:40–0:39:44
Es entsteht da so ein ganz komischer Raum, auch wo unglaublich viel Geld reingepumpt wird.
0:39:45–0:39:52
Zum Beispiel ist bei diesem Z petit, das kostet angeblich 100.000 $ pro Tag das am Laufen zu haben.
0:39:53–0:40:02
Es wird wohl auf Microsoft asur gehostet. Habe ich in einem Artikel gefunden und das heißt 3 Millionen pro Monat werden reingesteckt, nur damit es läuft.
0:40:03–0:40:09
Also es sind immense Summen, die da gerade verbraten werden, um auch Reviere abzustecken.
0:40:10–0:40:14
Und gleichzeitig, um natürlich auch Futter zu kriegen, dass die.
0:40:18–0:40:20
Gleichzeitig auch Futter zu kriegen, das die Maschinen besser lernen können.
0:40:22–0:40:23
Ähm.
Florian Clauß
0:40:24–0:40:26
Ganz gut. Wünsch dir was. Denkst du?
Micz Flor
0:40:27–0:40:30
Es ist total lustig. Unser. Unser Weg ist so ein bisschen.
Florian Clauß
0:40:32–0:40:42
Wir können. Ja, wir können also wieder zurück oder so Richtung Auto, dass Autos da ist. Und dann brauchst du noch ein bisschen länger.
Micz Flor
0:40:43–0:40:46
Ich habe noch gar nicht angefangen. Geht er.
0:40:46–0:40:51
Es geht, Dann drehen wir jetzt um und ich nehme den Rückweg von dieser Allee für mein eigentliches Thema.
0:40:57–0:41:00
Gut, das war jetzt quasi der, der das Vorspiel.
0:41:01–0:41:08
Und jetzt? Point of no return gibt es hier nicht, sondern point of return. Die Rückweg nehme ich für mein eigentliches Thema.
0:41:11–0:41:22
Wenn man sich mit diesem Künstliche Intelligenz Thema auseinandersetzt, dann geht es ja immer auch darum, dass man das auf so einer menschlichen Ebene sieht. Ich habe ganz kurz von diesem Bike angesprochen.
0:41:22–0:41:34
Also es gibt bei der Psychologie zum Beispiel den Rosenthal Effekt. Das ist genau so ein Bias, wenn man den Forschern sagt diese Ratte ist echt clever, diese Ratte ist echt dumm.
0:41:35–0:41:42
Dann wird die Ratte, die echt clever ist, sich besser. Also es wurde auch wiederholt das Experiment.
0:41:43–0:41:47
Die findet sich besser im Labyrinth zurecht als die, die angeblich dumm ist.
0:41:48–0:41:51
Das heißt, die Versuchsleitung hat dann Einfluss.
0:41:51–0:41:56
Die innere Einstellung gegenüber dem Tier hat einen Einfluss auf die Ergebnisse, die da rauskommen.
Florian Clauß
0:41:56–0:41:58
Und wie kriegt das Tier das mit? Ja.
Micz Flor
0:41:58–0:42:00
Ja, spannende Frage. Dann.
Florian Clauß
0:42:00–0:42:02
Wieso denn?
Micz Flor
0:42:02–0:42:05
Transpis. Weitergabe von. Von Attitüde und.
Florian Clauß
0:42:06–0:42:10
Aber es ist jetzt. Aber das ist doch genau diese Sache von Doppelblindstudien.
Micz Flor
0:42:10–0:42:23
Genau das war der Rosenthal Effekt. War auch ein ganz wichtiger Stepstone in dieser Umstrukturierung. Von diesen ganzen Studien ist man Doppelblind heißt eben, dass.
0:42:24–0:42:38
Keiner gar nichts weiß, also wie der Versuchsleiter weiß, ob da jetzt Substanz, wenn es Medizin ist, zum Beispiel Substanz drin ist oder nicht. Und das wird quasi komplett getrennt und versucht random zu randomisieren.
0:42:40–0:42:45
Und wenn wir jetzt also künstliche Intelligenz, diese ganze Angst, die da ist, die ist ja.
0:42:48–0:42:53
Ist ja irgendwie daran. Das berührt unsere eigene Existenz.
0:42:53–0:42:58
Also angenommen, man würde sagen. Man würde sagen, es ist Maschinenlernen.
0:42:59–0:43:05
Das würde die Leute nicht so anspornen, mitzureden, wie wenn man sagt Künstliche Intelligenz.
0:43:06–0:43:13
Insofern ist dieses Wort natürlich für ihre Aufmerksamkeit super gewählt und.
0:43:15–0:43:19
Die Fantasien, die dahinter entstehen, sind aber natürlich sehr schnell auch okay.
0:43:19–0:43:24
Intelligenz, das ist etwas, das macht den Menschen irgendwie auch einzigartig. Wir haben davon am meisten.
0:43:24–0:43:32
Wir sind die dominante ste Spezies hier auf dem Planeten. Nicht weil wir die längsten Zähne haben, sondern weil oder am stärksten sind, weil wir die intelligentesten sind.
0:43:35–0:43:41
Auf unserer Intelligenz beruht diese Position. Wenn jetzt was entsteht, was potenziell sogar intelligenter ist als wir.
0:43:41–0:43:44
Das ist eine Bedrohung, da fühlt sich jeder irgendwie angesprochen.
0:43:45–0:43:55
Das war ja früher mit den Robotern so ein bisschen, dass die das in den Autoherstellern gedacht wurde. Die ganzen Menschen werden überflüssig.
0:43:57–0:44:03
Was natürlich in vielen Punkten auch passiert ist. Das heißt dieses Bild.
0:44:04–0:44:13
Mit dem man sich irgendwie eigentlich beschäftigt. Ist das Bild von einem menschenähnlichen der deutlich menschenähnlicher Em?
0:44:16–0:44:23
Neuronalen Netz. Was eben. Intelligenz möchte ich gar nicht definieren. Aber was?
0:44:24–0:44:26
Was eben nicht nur smarte Sachen kann.
0:44:28–0:44:39
Über den Begriff künstlich möchte ich mich jetzt gar nicht auslassen, weil das ja auch sehr fragwürdig. Was heißt künstliche Intelligenz? Aber es kann also smarte Sachen tun. Kann Autos rückwärts einparken?
0:44:40–0:44:42
Können wir Bilder malen? Also es kann eine tolle Sachen.
0:44:44–0:44:58
Und dann ist aber dieser zweite Schritt das man und das waren ja auch dann diese, die diese ich weiß gar nicht mehr bei welcher Firma war dieser eine Typ, der auf einmal im Chat mit einer mit einem neuronalen Netz entschieden hat?
0:44:58–0:45:05
Oh Gott, dieses Netz ist sich selbst gewahr, es kennt ja und wir haben es eingesperrt. Es leidet.
Florian Clauß
0:45:05–0:45:09
Ja, ja, das war. Das war glaube ich der Google Entwickler.
Micz Flor
0:45:10–0:45:11
Weil es auf Google. Ich weiß es immer. Ich möchte es.
Florian Clauß
0:45:11–0:45:16
Ja, es war irgend so irgend so einer, der dann halt dann gesagt hat ja das.
Micz Flor
0:45:16–0:45:21
Müssen wir bedenken, dass bei jeder großen Firma irgendwer schon mal gesagt aber wir gucken mal!
Florian Clauß
0:45:21–0:45:24
Wenn du natürlich deine Gelder für.
Micz Flor
0:45:25–0:45:36
Und. Und diese, diese Sorge, die dann eben auch diese moralischen Themen gleich nach oben kochen lässt.
0:45:36–0:45:40
Wir haben inzwischen natürlich auch schon eine Tierethik als einen Bereich, der,
0:45:43–0:45:48
seriös ist. Da ist nicht mehr so ein Blödsinn, sondern es ist ein seriöses Thema.
0:45:48–0:45:55
Und das nächste ist natürlich so eine Frage von Technikethik oder Maschinenethik. Oder ich weiß gar nicht, wie ich es nennen möchte.
Florian Clauß
0:45:55–0:45:56
Asimov sche Gesetze.
Micz Flor
0:45:57–0:46:03
Weil man. Weil man eben. Potenziell. Oder man drängt in eine Richtung.
0:46:05–0:46:08
Von der man noch weit entfernt ist, in der man,
0:46:10–0:46:23
ein Gewahrsein herstellt, was fehlerhaft und deshalb sehr wahrscheinlich leidend sein wird und das aber nicht unbedingt kommunizieren kann mit seinesgleichen, weil es auch noch alleine ist.
0:46:24–0:46:35
Was ich meine, also es ist so ein bisschen von innen heraus wird das entwickelt, von dem man jetzt schon sagt, naja, wir können gar nicht genau sagen, ob das jetzt irgendwie wirklich selbst wahr ist oder nicht, weil,
0:46:36–0:46:40
es kann ja auch ganz anders denken als wir, denn wenn wir es nicht wissen. Weißt du, ich.
Florian Clauß
0:46:40–0:46:46
Hey. Also, es ist. Ich versuche es zu verstehen, aber ist es so was wie, ähm.
0:46:47–0:46:59
Also das, was jetzt für mich sehr nachvollziehbar ist, diesen BIOS, den, von denen du erwähnt hast, in dem Moment, wenn halt quasi derjenige, der das System trainiert,
0:47:00–0:47:08
injiziert irgendwie auch seine seine Vorstellung, seine Moral in dieses System rein.
0:47:08–0:47:21
Also ganz, ganz abstrakt gesprochen, allein dadurch, dass er es trainiert, dass es da halt quasi eine Beziehung gibt zwischen dem, der also dem, der trainiert und dem dem Maschinen Learning.
Micz Flor
0:47:22–0:47:27
Genau. Aber da war ich jetzt schon. Da war ich schon weg. Eigentlich. Ich dachte jetzt eher so..
Florian Clauß
0:47:22–0:47:24
Und dadurch wird halt das initiiert.
Micz Flor
0:47:28–0:47:41
Ich dachte jetzt eher so, wenn wir nachher noch was essen gehen sollten und dann mit dem Ober über künstliche Intelligenz sprechen, dass der irgendwie so was sagt wie Ja, hoffentlich können sie so einen Koch ersetzen. Das kann man nicht essen, was der macht.
0:47:42–0:47:47
Also das diese diese Künste. Also da geht es gar nicht darum.
0:47:47–0:47:50
Ich finde, der Begriff künstliche Intelligenz selbst induziert,
0:47:53–0:48:03
etwas Bedrohliches und ist vielleicht sogar nicht strategisch deshalb entstanden, aber einfach kleben geblieben.
0:48:03–0:48:08
Irgendwann, weil alle Leute damit so Darth Vader mäßig am meisten verbinden konnten.
Florian Clauß
0:48:09–0:48:12
Ja, ja, ja, klar. Okay. Das ist irgendwie ein Begriff. Ja.
Micz Flor
0:48:13–0:48:28
Der eine Teil und der andere Teil ist natürlich, dass, wenn man das weiterdenkt, dass man eben das, was die Menschen da bedroht, nämlich dieses Gefühl, wir werden entweder ersetzt oder es wird halt irgendwas entstehen, was vielleicht sogar noch intelligenter ist als wir, Was dann? Vielleicht sogar.
0:48:29–0:48:34
Die viele Entscheidung besser macht, als wir das vielleicht sogar merkt. Die Menschen sind nicht gut für den Planeten.
0:48:34–0:48:38
Solche solche Fantasien gibt es ja auch.
0:48:43–0:48:52
Okay, das ist jetzt mal ein Kieks. So ein E Roller mitten in der Matschstraße im Nirgendwo.
0:48:53–0:48:54
Damit hat jetzt keiner gerechnet.
Florian Clauß
0:48:55–0:48:57
Ich denke auch, es käme ein Mountainbiker.
Micz Flor
0:48:56–0:49:00
Ich muss dann nachher, ich muss dann nachher irgendwie super aussortiert werden, diese Erfahrung.
0:49:04–0:49:11
Und diese. Was ich meinte mit der Tierethik, die jetzt auch so ai Ethik sein könnte, ist halt du.
0:49:11–0:49:24
Wenn du das herstellen würdest und es wahrscheinlich nicht mal mitbekommen müsstest, dann könntest du höchstwahrscheinlich im ersten Schritt etwas herstellen, was sehr leidet.
0:49:25–0:49:34
Meinst du also einen Horrorfilm? Gibt es das auch immer, wenn irgendwelche Dämonen zum Ersten Mal auf die Welt kommen, sich so manifestieren und dann manchmal so halb in einem Schrank drin hängen oder so ein Rohr durchs Auge kommt. Bist du.
Florian Clauß
0:49:34–0:49:36
Die müssen erst mal gerendert werden.
Micz Flor
0:49:36–0:49:43
Ja, Und du weißt, was ich meine. Diese Momente, wo man dann schieße. Hellraiser. Ich verstehe. Ich verstehe es noch nicht ganz. Warum?
Florian Clauß
0:49:39–0:49:42
Aber ich verstehe. Ich verstehe. Ich verstehe es noch nicht ganz.
Micz Flor
0:49:44–0:49:46
Warum man Leidenschaft in.
Florian Clauß
0:49:46–0:49:50
Aber in dem Moment, also warum das jetzt in die Welt kommt.
Micz Flor
0:49:52–0:49:59
Das ist nicht das, was gerade passiert. Das ist ja Maschinenlernen. Aber weil wir es künstliche Intelligenz nennen, also die.
0:50:00–0:50:03
Ich bin mal gespannt, wie das ist beim Abhören von dem Ganzen.
Florian Clauß
0:50:03–0:50:05
Dann leiden wir gänzlich.
Micz Flor
0:50:05–0:50:10
Wir leiden. Genau. Ich habe gerade. Aber manchmal bleibt mir die Luft weg.
Florian Clauß
0:50:08–0:50:11
Körper im Körper eingeschrieben. Das Leiden.
Micz Flor
0:50:12–0:50:23
Na ja, aber das ist ja, ähm. Ich glaube, dass der, um es mal zu sagen, der große Sprung zwischen dem, was gerade passiert, und zwischen dem, was alle befürchten. Er ist, ähm.
0:50:25–0:50:34
Inzwischen kann AI sehr viel besser bösartige Tumore auf Röntgen erkennen als Ärzte. Schneller und besser. So.
0:50:37–0:50:42
Und dann erkennt es das. Richtig. Punkt. Und was die Leute befürchten, ist.
0:50:43–0:50:49
Und dann weiß der auch, dass der das oder die oder das weiß. Das auch, dass es richtig ist.
0:50:49–0:50:55
Meint es auch. Es hat es abgewägt. Also es tut all diese Dinge, die wir als Mensch von uns kennen und.
0:50:59–0:51:06
Dieser Unterschied ist, glaube ich, enorm wichtig. Also kommt diese Information, die korrekt ist von.
0:51:08–0:51:11
Einem und da komme ich jetzt an das Selbst.
Florian Clauß
0:51:11–0:51:13
Ja, okay. Also, das ist er. Okay.
Micz Flor
0:51:13–0:51:25
Es geht quasi. Was wir jetzt gerade haben, ist, wenn ich es in der Therapie sage, wir haben jetzt gerade die Verhaltenstherapie oder streng genommen nur Behaviorismus, das heißt, wir sagen, egal was in dieser Box ist Turingtest mäßig, egal was da drin passiert.
0:51:27–0:51:40
Wir gucken nur, was reingeht, was rauskommt und nach Thüringen Test wenn das was rauskommt keiner sagen kann Für Mensch oder Maschine ist dann wenn es eine Maschine ist, dann hat die Turing Test bestanden.
0:51:41–0:51:44
Was da drin abgeht wissen wir nicht. So, und jetzt?
0:51:46–0:51:58
Ist es so, dass wenn wir da drin etwas schaffen, was genauso wie wir im Inneren Eigenschaften hat, die.
0:52:00–0:52:04
Zum Beispiel mit dem Leiblichen zu tun hat, mit dem Wesen zu tun haben.
0:52:04–0:52:12
Dieses Wort Quäntchen, was auch immer genannt wird, was eben Empfindsamkeit heißt, oder man kann Dinge empfinden,
0:52:13–0:52:20
das ist so eine Vorwahrnehmungsstufe, in dem man etwas empfindet, bevor man es wirklich deutlich erkennt.
0:52:20–0:52:33
Also hier versucht, diese neuronalen Netzwerke mit solchen Dingen auszustatten, ist dann irgendwie einerseits der Wunsch und andererseits die Sorge, dass man dann eben auch Wesen schafft,
0:52:34–0:52:37
die eine Form von Bewusstsein entwickeln könnten.
0:52:38–0:52:46
Und wobei das auch. Wiederum muss ich auch noch gleich was zu sagen und dann aber eventuell oder sehr wahrscheinlich darunter leiden.
0:52:48–0:52:52
Ja. Und die muss du einfach ausschalten. Ich halte. Du stellst quasi was her.
0:52:53–0:52:57
So ein bisschen wie bei Die Fliege. Kannst Ja.
Florian Clauß
0:52:58–0:53:05
Aber ich verstehe es immer noch nicht. Warum soll die darunter leiden? Ich dachte. Ich dachte. Ich. Ich dachte, ich hätte es nicht ganz verstanden. Weil,
0:53:08–0:53:09
du jetzt quasi. Jetzt nicht.
Micz Flor
0:53:09–0:53:14
Aber nehmen wir mal die Fliege. Nehmen wir mal den Film Die Fliege in der Version mit Jeff Goldblum.
0:53:15–0:53:25
Da gibt es ja dann diese diesen Wunsch, Lebewesen von A nach B zu transportieren, indem man sie in die Einzelteile zerlegt.
0:53:26–0:53:30
Dann von A nach B überträgt und dort wieder zusammenbaut.
0:53:31–0:53:34
Und dann ist da eine Fliege und Jeff Goldblum drin.
0:53:34–0:53:42
Dann werden die Atome zerlegt und wieder zusammengebaut und dann kommt Jeff Goldblum raus und verwandelt sich dann Tag für Tag in eine Fliege. So.
0:53:43–0:53:46
Also es war nicht sein Wunsch.
0:53:47–0:53:51
Er hat gedacht, er hat es irgendwie gecheckt und will es halt ausprobieren. Wusste nicht, dass Fliege mit drin ist.
0:53:51–0:53:55
Und er ist ja dann leidend. Er verändert sich auch im Wesen und er leidet.
0:53:57–0:54:02
Und ist es nicht sehr wahrscheinlich, wenn man mit Mäusen versuchen würde, so eine Art Gerät zu schaffen,
0:54:03–0:54:13
dass man wie im Film auch ganz viele halbtote Tiere dann irgendwie auf dem anderen Teil erst mal sieht, also ganz viel Leid herstellt.
0:54:13–0:54:21
Aber okay, das ist ja dann nachvollziehbar, weil du hast ja lebendige. Genau. Wir reden ja jetzt von.
0:54:24–0:54:35
Genau. Genau. Und das ist halt. Und das künstlich ist wiederum das künstlich ist halt wiederum dann eine menschliche Bias sozusagen. Also wir sagen künstliche Intelligenz.
0:54:35–0:54:37
Das entfernt sich dann auch ein bisschen von uns.
0:54:38–0:54:47
Es gibt inzwischen, glaube ich, sogar in der Physik über das Thema Bewusstsein, also können wir uns selbst erkennen und Bewusstsein haben uns.
0:54:47–0:55:00
Bewusstsein gibt es inzwischen auch da schon so eine Theorie, die andersrum denkt, die sagt, Bewusstsein ist in der Materie angelegt und komplexe Systeme sind in der Lage, immer mehr davon zu erschließen,
0:55:01–0:55:08
so als ob das quasi in der Materie ist und nicht wie wir.
0:55:08–0:55:18
Man denkt ja oft so, wenn das System komplex genug wird, dann kann es sich selbst bewusst werden und dann geht es wieder um das Selbst, um das Ich. Eigentlich reden wir doch gleich nochmal auf diese.
0:55:22–0:55:28
Oder ist es so, dass das Bewusstsein sowieso in der Welt ist? Und alles ist damit berührt?
0:55:29–0:55:36
Aber komplexe Systeme wie Menschen, einige Tiere, vielleicht auch Bäume, wissen wir nicht.
0:55:36–0:55:44
Die kommen damit schon in Berührung. In der Form, in der sie darüber reflektieren können, wie das zum Beispiel Steine nicht können.
0:55:46–0:55:53
Ja, das ist mir ziemlich esoterisch. Ja, stimmt, muss ich. Der müsste. Dann müssen wir vielleicht eine eigene Folge zu machen, weil.
0:56:08–0:56:09
Kaum dass gerade.
0:56:12–0:56:19
Es war toll, diesen Schub und Zusammenzucken. Ich dachte, es wird auch kalt. Mir ist auch echt kalt. Es ist schlecht.
0:56:19–0:56:22
Wir gehen. Wir gehen zum Auto. Also ist die Frage. Wie kriegen wir?
Florian Clauß
0:56:21–0:56:24
Also es ist die Frage, wie kriegen wir jetzt noch den Absprung?
Micz Flor
0:56:24–0:56:27
Ich mache einfach den zweiten Teil. Der zweite Teil wird folgendes sein.
0:56:29–0:56:32
Es gibt einen Begriff vom Selbst in der Psychodynamik,
0:56:34–0:56:40
Psychoanalyse, ursprünglich aber in der psychischen Dynamik. Und den würde ich gerne mal.
0:56:42–0:56:48
Ähm darstellen. Darum geht es halt. Oder? Dabei geht es darum, dass.
0:56:50–0:56:57
Freut ihn seine Idee mit dem Eis und ich dann irgendwann auch so ein selbst ich erfunden hat, weil er gemerkt hat.
0:56:58–0:57:03
Dass dieses System, was er versucht zu beschreiben, das steht auch mit einem Bild von sich selbst in Kontakt.
0:57:04–0:57:07
Wir können nicht einfach in der Welt sein, ohne ein Bild von uns zu haben.
0:57:08–0:57:13
Und das ist eine Sache, die dann, glaube ich, über das ganze 20. Jahrhundert hinweg weiter ausgetreten wurde.
0:57:14–0:57:16
Da gibt es ja dann auch so diese, diese.
0:57:19–0:57:23
Ja, wir merken es einfach, wenn du Auto fährst und du bist mit dem Auto verschmolzen.
0:57:23–0:57:27
Also, wir sind in der Lage, uns mit anderen Dingen zu verbinden.
0:57:27–0:57:35
Wir können irgendwie mit Rollerblades wie mit zwei Füßen arbeiten und so was. Das heißt, es gibt in uns ein Selbst, das entsteht.
0:57:36–0:57:41
Damit kommt man nicht auf die Welt. Man kommt aber mit der Fähigkeit auf die Welt, das zu entwickeln.
0:57:42–0:57:48
Man hat auch gemerkt, in manchen dramatischen Situation der Vergangenheit, dass das selbst nicht unbedingt entstehen muss.
0:57:49–0:57:54
Wenn es aber nicht entsteht oder nur brüchig entsteht, dann entstehen Menschen, die auch.
0:57:56–0:58:05
Manchmal große Probleme im Leben haben kann. Und dieses Selbst ist, glaube ich so der Punkt, an dem die nächste.
0:58:07–0:58:15
Ja, das wird so die nächste Aufgabe werden. Das ist, glaub ich der Holy Grail, der den Unterschied herstellt zwischen einem neuronalen Netz. Was einfach so ein.
0:58:16–0:58:26
Weißer Teig ist, der halt was kann. Egal ob das jetzt irgendwie aus Dioden gebaut ist, aus Transistoren, aus Neuronen, es ist wurscht, kann das lernen.
0:58:26–0:58:33
Man kann inzwischen auch schon mit Neuronen bestimmte Dinge lernen und die Neuronen verkoppeln sich selbst und machen was.
0:58:35–0:58:42
Und dieses Selbst ist, glaube ich so eben diese sehr, sehr, sehr unerreichbare Stufe.
0:58:44–0:58:49
Die allerdings beim Kind entsteht oder fast notwendigerweise entstehen muss.
0:58:51–0:58:58
Und weshalb ich dann denke, dass es doch spannend wäre, auch klinische Psychologie in die KI Forschung mit einzubeziehen.
0:58:59–0:59:12
Und gleichzeitig mir dann wünscht, dass eben auch hier ethische Experten und Expertinnen da mitreden dürfen, weil ich halt wirklich der Meinung bin, dass diese Form von selbst Gewahrsein.
0:59:15–0:59:18
Genau diese Grenze ist, wo man dann wirklich von ethischen Themen spricht,
0:59:19–0:59:30
und nicht mehr Ethik für Arbeit und Arbeitsmarkt und sonst was oder von Geldverteilung oder ohne, wirklich halt mit dem Produkt was man herstellt. Punkt.
Florian Clauß
0:59:31–0:59:34
Okay, spannend, großer Cliffhanger aufgebaut.
0:59:36–0:59:49
Die zweite Episode, die zweite Folge zu dem Thema kommt Ich. Ich trage das auf jeden Fall bei mir im Kopf rum, weil ich kriege es noch nicht so zusammen. Deswegen freue ich mich auf ein weiteres Gespräch.
Micz Flor
0:59:49–0:59:57
Ich muss mir das auch noch mal anhören, wenn ich diese Brustprellung weg habe. Vielleicht liegt es auch an meiner Leiblichkeit und meinem Körper, der mich da irgendwie.
Florian Clauß
0:59:57–1:00:04
Wenn selbst das dich wieder daran hindert, du selbst zu sein. Of Thrones Diese Szene, die finde ich ganz.
Micz Flor
1:00:00–1:00:05
Du kennst ja diese Szene in Game of Thrones. Diese Szene, die finde ich ganz toll.
1:00:05–1:00:09
Woodorholt. The Door. Dieser.
Florian Clauß
1:00:08–1:00:11
Für die auch jetzt ist gesagt.
Micz Flor
1:00:10–1:00:19
Es ist verraten. Und dieses hold the door, hold oder outdoor oder oder. Und er hält diese Tür zu, damit die Bösen nicht rauskommen und dann diesen Jungen, den er beschützt, umbringen könnten.
1:00:20–1:00:29
Und du merkst halt, dass so eine Situation, wo er halt so von der Tür gebunden ist, dass er sich um nichts anderes mehr kümmern kann. Und vielleicht ist meine Brust, die gerade immer wieder zumacht.
Florian Clauß
1:00:30–1:00:30
Hey.
Micz Flor
1:00:30–1:00:35
Deshalb kann ich nicht gut reden. Und deshalb hast du das Gefühl, du checks es nicht. Aber in Wahrheit habe ich es nie gesagt.
Florian Clauß
1:00:37–1:00:46
Okay. Insofern. Holla, hurra! Bis zum nächsten Mal bei eigentlich Podcast D.
1:00:47–1:00:51
Also ich wünsche dir, dass es dir bald besser geht.
Micz Flor
1:00:52–1:00:55
Danke. Beim Reden, Laufen und Atmen.
Florian Clauß
1:00:55–1:01:04
Genau. Und laufen und reden. Und atmen. Und atmen. Und genau. Also dann warten wir auf die zweite Episode.
1:01:06–1:01:15
Bei der zweite Folge der 18. Episode. Wie willst du sie eigentlich nennen? Künstliche Intelligenz.
Micz Flor
1:01:06–1:01:07
Zweite Folge der.
1:01:15–1:01:24
Also jetzt hatte ich einen Arbeitstitel, das Selbst Doppelpunkt Der heilige Gral der künstlichen Intelligenz. Forschung, Fragezeichen.
1:01:24–1:01:28
Okay, so kann ich diese Episode nicht. So wird dann wahrscheinlich die nächste heißen.
Florian Clauß
1:01:29–1:01:31
Ich bin gespannt. Vielen Dank mit.
Micz Flor
1:01:31–1:01:39
Nichts zu danken. Und schön, dass du mir so lange zugehört hast. Das ist schlimm. Ich weiß es nicht. Ich muss mir anhören, wenn ich wieder gesund.
Florian Clauß
1:01:36–1:01:41
Was ist schlimm? Ich heiße Sie also. Meinen es gut? Ja.

Mehr