Während Menschen ein Leib sind, haben Maschinen bestenfalls einen Körper.

Es sollte "eigentlich" um Künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen. Doch eine gebrochene Rippe ermattet Micz zu sehr, um eine zusammenhängende Folge zustande zu bringen, eine "leibliche" Tatsache, die durch die Hintertür mit dem Thema "Künstliche Intelligenz" eng verwoben ist. Dass der Leib nämlich eine zentrale Rolle bei menschlichen kognitiven Prozessen spielt, darüber sind sich Vertreter:innen der "Embodied Cognition" einig. Wichtig ist hier der Begriff "Leib", der sich wesentlich vom "Körper" unterscheidet. Weswegen ich den deutschen Begriff der "leiblich verankerten Kognition" für "Embodied Cognition" gegenüber anderen Übersetzungen bevorzuge. Auch wenn "Leib" umgangssprachlich nur noch in theologischen Zusammenhängen eine Rolle zu spielen scheint, war etymologisch der Leib das Lebendige und der Körper der materielle, anatomische, leblose Gegenstand (vgl. im Englischen: corpse). Deshalb halten wir an dieser Folge fest und verstehen sie als Selbsterfahrung für unsere Hörer:innen, um ein Gespür dafür zu bekommen, was ein lädierter Leib dem menschlichen Denken antut. Die Frage, die daraus entstehen könnte: können "künstliche" kognitive Fähigkeiten ohne Leib überhaupt dem menschlichen Denken verwandt sein? Während Menschen ein Leib *sind*, *haben* Maschinen bestenfalls einen Körper.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß
avatar
Text2Speech
Intro

Transcript

Text2Speech
0:00:00–0:00:04
Gleich folgt die 18. Episode des eigentlich Podcasts.
0:00:04–0:00:14
Doch bevor wir beginnen, möchte ich Ihnen etwas Kontext geben und kurz verraten, was wenige Tage vor und wenige Minuten nach der Aufnahme geschah.
0:00:14–0:00:23
Mitch war drei Tage vor der Aufnahme hingefallen und dachte, er habe sich den Brustkorb geprellt. Immer wieder blieb ihm während der Aufnahme die Luft weg.
0:00:24–0:00:31
Flo machte sich deswegen Sorgen und fuhr mich im Anschluss an die Folge, die sie gleich hören werden, ins Krankenhaus.
0:00:32–0:00:37
Dort stellte sich heraus, dass dieser sich beim Sturz eine Rippe gebrochen hatte.
0:00:37–0:00:44
Es sollte eigentlich um künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen.
0:00:44–0:00:51
Wie sie jedoch schon zu Beginn merken werden Mitch ist nicht sehr ausdrucksstark. Das Atmen fällt ihm schwer.
0:00:52–0:00:56
Seine körperlose Stimme weckt Mitleid und wirkt gleichzeitig abstoßend.
0:00:57–0:01:07
Flo lässt sich von der Grabesstimmung runterziehen. Erst als sich abzeichnet, dass gleich Schluss sein wird, lebt er auf, lacht und albert herum.
0:01:08–0:01:13
Warum aber soll ich mir die Folge dann anhören? Danke für die Frage.
0:01:13–0:01:24
Inhaltlich ist die Folge wenig mitreißend, formal allerdings sehr eng mit dem Thema Künstliche Intelligenz verbunden. Welche Bedeutung hat der Körper?
0:01:24–0:01:32
Besser gesagt Körperlichkeit. Noch besser gesagt der Leib für Prozesse der Kognition und des Bewusstseins.
0:01:33–0:01:40
Zwar wird diese Frage in der folgenden Episode nicht diskutiert, aber auf der Bühne des Körpers vorgespielt.
Micz Flor
0:01:41–0:01:55
Ähm. Ja. Wir, Flo und ich mit Flo nehmen mir eigentlich das podcastde 14 tägig im Netz auf dem Blog Post.
0:01:55–0:01:59
Für jede Folge gibt es immer auch noch die Spur, wo wir langlaufen.
0:02:00–0:02:05
GPS Daten werden getrackt und heute sind wir irgendwie so um nichts.
0:02:08–0:02:18
Und laufen in der Wuhlheide einfach mal so ein bisschen die Wege ab, bis die Folge fertig ist. Wir wissen nicht, ob es fertig ist.
0:02:19–0:02:21
Kann es sich nur um Stunden handeln?
Florian Clauß
0:02:22–0:02:35
Ja hallo, auch von meiner Seite. Wir sind heute in der 18. Episode von Eigentlich Podcast und diese Folge hat uns Mitchenthema mitgebracht.
0:02:35–0:02:39
Ich weiß noch nicht, worum es geht. Ich bin gespannt. Ja, wir sind hier.
0:02:42–0:02:49
Du sagst es bereits in der Wuhlheide und gehen jetzt hier. Also einer, einer einen großen.
0:02:50–0:02:54
Ich glaube, das ist hier so ein Heizungsrohre. Ein Wasserrohr entlang. Ich habe.
0:02:54–0:03:00
Was weiß ich. Ich. Ich bin gut vorbereitet, weil ich habe eine Taschenlampe dabei.
0:03:01–0:03:07
Nee, nee, nee, nee, ich bin. Ich habe eine Taschenlampe dabei, wo wir dann halt den Weg, weil ich.
0:03:07–0:03:19
Was ich jetzt auf jeden Fall vermeiden möchte, ist das, das ich auf die Seite fasst und dich dann mitnehme und wir dann wie zwei Kafka Käfer rumliegen.
0:03:19–0:03:24
Und dann kommt ein Apfel von oben, der auf uns fällt auf den Körper und wir verfaulen noch.
Micz Flor
0:03:25–0:03:31
Gerade so ein schönes Psychotherapeutenwie mit dem Käfer von Kafka kennst du ja bestimmt.
0:03:32–0:03:40
Dieses Bild hat so ein kleines Holzbett, der Käfer liegt irgendwie drauf und unten drunter sagt jemand Haben Sie mal Achtsamkeitsübungen versucht?
0:03:41–0:03:45
Oh wow, Es ist richtig nebelig, dunkel und nebelig.
Florian Clauß
0:03:45–0:03:55
Ich mache. Ich mache meine Aufnahme. Das ist, glaube ich. Also können wir hier diese, dieses Licht, diese, diese Wassertröpfchen, das Kondensat, was hier rumfliegt.
0:04:03–0:04:07
Sind einigermaßen dramatisch aus. Okay.
0:04:08–0:04:19
Somit jetzt bin natürlich gespannt und ich bin auch ein bisschen, ich will nicht sagen besorgt, aber ich möchte, dass es dir gut geht und ich hoffe,
0:04:21–0:04:25
das wird es dir mit dem Thema, das du uns mitgebracht hast.
Micz Flor
0:04:26–0:04:30
Genau. Ich versuche mal zu reden. Ich klinge vielleicht ein bisschen flacher. Manchmal bleibt mir die Luft weg.
0:04:30–0:04:36
Das ist jetzt halt einfach so.. Aber vielleicht liegt es auch an diesem immensen Hype um das aktuelle Thema.
0:04:37–0:04:45
Gleichzeitig auch meine schüchterne Selbsteinschätzung, dass es mir zwar total wichtig ist, aber, ähm.
0:04:46–0:04:52
Ja, Flo, es geht. Es soll. Es soll in diesem Gespräch um künstliche Intelligenz gehen.
Florian Clauß
0:04:53–0:04:53
Oh, okay.
Micz Flor
0:04:53–0:04:59
Und das ist natürlich ein Riesenfeld. Und gleichzeitig möchte ich das so ein bisschen einschränken.
0:05:00–0:05:09
Ich denke, das ist so ein interdisziplinäres Feld, wo ja unglaublich viele Forschungsgebiete zusammenkommen.
0:05:09–0:05:13
Dazwischen auch die Philosophie, Technik, Philosophie, moralische Themen.
0:05:14–0:05:19
Was, was? Was heißt es denn, ein künstliches Bewusstsein anzuvisieren?
0:05:20–0:05:22
Ob man das überhaupt herstellen kann, sei dahingestellt.
0:05:23–0:05:31
Die Psychologie ist natürlich involviert, die Biologie ist involviert, die teilweise auch neuronal Inspiration für Hardware liefern kann.
0:05:32–0:05:37
Natürlich die Informatik programmieren.
0:05:37–0:05:51
Das geht halt quasi vor allen Dingen darum, auch Code zu generieren, der mit unglaublich großen Datensätzen Strukturen abbildet und erstellt, die dann wiederum einen Teil der Welt erkennen können oder damit irgendwas machen können,
0:05:51–0:05:54
wo in gewisser Form dann auch nicht nur der Code selbst,
0:05:55–0:05:58
sondern diese dieses Netzwerk,
0:06:01–0:06:02
der Gegenstand ist.
Florian Clauß
0:06:02–0:06:07
Wow. Also, großes Thema hier. Respekt. Respekt.
Micz Flor
0:06:07–0:06:13
Ich will es halt ein bisschen einfangen und möchte ein bisschen die Frage stellen.
0:06:15–0:06:22
Die Psychologie ist natürlich Thema, aber die klinische Psychologie, sollte die nicht vielleicht auch Thema sein?
0:06:22–0:06:27
Wenn man interdisziplinär mit diesen Fragen der künstlichen Intelligenz umgeht.
0:06:28–0:06:34
Der Hintergrund ist der es geht ganz viel eben auch um Lernen. Ja, und die Art des Lernens, das werde ich kurz beschreiben.
0:06:34–0:06:40
Die ist jetzt gerade noch relativ brachial, ja gewitzt, aber jetzt nicht unbedingt empathisch.
0:06:41–0:06:46
Diese Maschinen werden getrimmt. Das ist jetzt kein moralisches Thema, es ist einfach so, wie es gemacht wird.
0:06:47–0:06:56
Und gleichzeitig gibt es ja gerade in der klinischen Psychologie unglaublich viele Bereiche, die sich intensiv auch mit Lernen und Entwicklungsfragen.
0:06:59–0:07:05
Auseinandergesetzt haben und in der klinischen Psychologie, gerade wenn man an diese,
0:07:05–0:07:17
hollywoodeske Idee von künstliche Intelligenz denkt, also diese dieses Thema des Sich selbst Bewußtwerdens kennt und Beijings aus künstlicher Intelligenz.
0:07:18–0:07:31
Da möchte ich den Begriff des Selbst, der jetzt auch seit über 100 Jahren in der Psychotherapie eine Rolle spielt, so ein bisschen vorstellen, weil ich glaube, das selbst ist genau dieser,
0:07:33–0:07:37
springende Punkt, der Holy Grail, dass keine Ahnung, wie man es nennen möchte,
0:07:38–0:07:51
was dann wirklich diese Riesenhürde ist, wo künstliche Intelligenz, die heute zwar und das ist eine Hypothese von mir als Intelligenz vermarktet wird, aber die noch sehr nah am Maschinenlernen dran ist,
0:07:52–0:08:01
dass es dann wirklich um so eine Form von sich selbst Erkennendes und Spürendes, was Wesenshaftes werden könnte.
0:08:01–0:08:06
Und da denke ich, spielt es selbst in der klinische Psychologie eine große Rolle. Und in der Entwicklung,
0:08:08–0:08:14
des jeden Menschen entsteht etwas, was wir selbst nennen. Da möchte ich eigentlich drüber sprechen.
Florian Clauß
0:08:14–0:08:15
Ein Selbstbewusstsein.
Micz Flor
0:08:16–0:08:19
Genau das ist interessant, weil Selbstbewusstsein ist halt so ein Stichwort.
0:08:19–0:08:29
Das sagen wir im Deutschen. Das hat ja ein bisschen was damit zu tun, dass wir stolz sind auf das, was wir tun, dass wir unser Licht nicht unter den Scheffel stellen, wie es so schön heißt.
0:08:30–0:08:42
Im Englischen ist es halt, gibt es halt diesen Begriff der self awareness, den man im Deutschen gar nicht, also dieses Selbst Gewahrsein, das gibt es.
0:08:42–0:08:49
Also wenn wir von Bewusstsein sprechen und Awareness sprechen und oder Consciousness sprechen, dann im Deutschen.
0:08:51–0:09:02
Jetzt zieht es gerade mein Körper so zusammen. Wahrscheinlich, weil ich das Wort sentient, nämlich Empfindungsfähigkeit oder empfindungsfähig genannt habe.
0:09:03–0:09:11
Weil das auch nur so eine Nebenspur ist, die ich glaube, die völlig unterschätzt wird, ist, was das Körperliche in Lernprozessen für eine Rolle spielt.
0:09:13–0:09:16
Also wir sind es ein bisschen absurd. Wir sind mitten im Dunkeln. Gerade.
0:09:17–0:09:21
Mir bleibt manchmal die Luft weg. Ich kann gar nichts sehen.
0:09:22–0:09:36
Und die Analogie dazu? Die Assoziation wäre vielleicht wirklich eher dann so eine, so eine sich gewahr werdende künstliche Intelligenz, die erst mal so im Dunkeln steht, sie irgendwie gar nicht so genau die Welt berühren kann oder erfassen kann.
0:09:38–0:09:45
Ich möchte vorneweg auch noch ein Literaturtipps zu dem Thema abgeben.
0:09:46–0:09:50
Habe ich dir Flo zum Geburtstag geschenkt?
0:09:50–0:09:54
Können wir auch vielleicht irgendwann mal besprechen als Folge von Dan Simmons Ilium.
0:09:55–0:10:09
Da geht es also. In einem sehr langen, sehr komplexen Buch, finde ich, geht es ganz großartig eigentlich um diese Frage von künstlicher Intelligenz, Menschsein und Körper sein und wie auch immer.
0:10:10–0:10:13
Weil in diesem Buch unglaublich viele unterschiedliche Formen von.
0:10:16–0:10:28
Sag ich mal Wesen, eben auch Menschen dargestellt werden. Es gibt normale Menschen, es gibt Übermenschen, es gibt aber auch zum Beispiel diese Mora wächst die halt eher so Roboter sind aber die wie ein eigenes,
0:10:29–0:10:33
Gott man meine Brust macht manchmal zu.
0:10:34–0:10:45
Denn zumindest geht es dann auch um diese Morawags. Das sind im Prinzip Roboter, die aber völlig autonom sich selbst herstellen oder wie auch immer, dass weiß man gar nicht genau.
0:10:46–0:10:50
Die. Und dann gibt es auch zwei der Hauptperson.
0:10:50–0:11:00
Das eine ist ein Mann. Mut und Aufruhr auf Io, die beide sich über die Shakespeare Sonette auslassen und darüber reden.
0:11:00–0:11:09
Und der eine möchte, ich weiß nicht mehr wie rum, der andere möchte den anderen davon überzeugen, dass Shakespeare es wert ist, sich damit auseinanderzusetzen.
Florian Clauß
0:11:09–0:11:17
Ich glaube, der eine bringt hier die verschwunden, die die verlorenen Zeit,
0:11:19–0:11:25
eins als sein Objekt of war, der sich die ganze Zeit mit beschäftigt.
0:11:26–0:11:32
Und Shakespeare ist natürlich die höchste Klasse von dem und die sind die ganze am struggeln.
0:11:33–0:11:43
Das ist also diese Szenen sind so absurd wo der dann von diesen ein Kilometer großen Oktopus flieht, während er dann noch versucht irgend so eine.
0:11:44–0:11:52
So eine Textanalyse von Shakespeare dann nebenbei zu machen und er ist kurz davor, halt von einem Oktopus dann verschluckt zu werden.
0:11:52–0:11:58
Aber schafft es dann auch, die Textanalyse fertig zu machen, in der Wurst dann halt auszuweichen?
Micz Flor
0:11:59–0:12:01
Und das ist nämlich genau die beiden, die,
0:12:03–0:12:12
die bringen dann auch so einen körperlichen Aspekt rein. Und natürlich hat man dann, das ist ja auch ein Thema der künstlichen Intelligenz, wie sind meine Interfaces mit der Welt, was kann ich sehen?
0:12:13–0:12:17
Kann ich zum Beispiel mit der Kamera Bilder sehen oder kann ich einfach nur Texte lesen?
0:12:17–0:12:28
Und bei denen ist es so, dass der Mann Mut der ist dann so ein sehr ungelenker, großer, schwere Roboter, der in einem genauso ungelenken, großen, schweren Raumschiff liegt,
0:12:29–0:12:36
der sich dann mit den Sensoren oder der Sensorik, sag ich mal, dem sensorischen System des Raumschiffs verbindet, um dann,
0:12:37–0:12:44
quasi durch das Raumschiff hindurch die Welt zu sehen, durch die das Raumschiff fliegt, was er wiederum lenkt.
0:12:45–0:12:55
Und dann hat er diese Crashlandung. Das ist glaube ich genau diese Szene und danach muss er sich dann irgendwie durch seinen Kollegen Orfurio so ein bisschen sensorische Zeit pumpen.
0:12:56–0:13:10
Schaltet sich dann bei dem ein, um die Welt wahrzunehmen. Das sind dann natürlich ganz andere elektromagnetische Frequenzen, die OFU hat, aber er kann das dann irgendwie so extrapolieren, um dann überhaupt wieder in der Welt zu sein und damit arbeiten zu können.
0:13:10–0:13:14
Und das ist natürlich auch ein großes Thema in der künstlichen Intelligenz.
Florian Clauß
0:13:14–0:13:16
Das Learning Pattern.
Micz Flor
0:13:17–0:13:23
Vor allen Dingen aber glaube ich die Wahrnehmung. Was kann ich sehen? Was?
0:13:26–0:13:36
Also wie ich jetzt drauf kam. Also ich habe das natürlich immer wieder Thema, ich habe Psychologie studiert, da hört man irgendwann von Weizenbaum das Eliza Programm.
0:13:36–0:13:42
Das ist im Prinzip Code, der versucht anhand von einem,
0:13:45–0:13:51
Non directive Psychotherapie Approach, der eher über Fragen funktioniert, versucht das zu simulieren.
0:13:51–0:13:55
So eine psychotherapeutische Sitzung, du tippst was und er antwortet.
0:13:55–0:14:05
Und das war natürlich dann auch so 1966 Spielerei mit dieser Idee vom Turing Test oder das Imitation Game, wie Turing selber gesagt hat,
0:14:06–0:14:11
wo man halt feststellen könnte, ob eine Maschine in der Lage ist.
0:14:11–0:14:25
Ich sag es mal so komisch den Menschen zu imitieren oder andersherum gedeutet den Menschen zu täuschen, der dann nicht mehr in der Lage ist, das, was die Maschine mitteilt, über Text oder wie auch immer,
0:14:25–0:14:28
von dem zu trennen, was Menschen mitteilen.
0:14:28–0:14:42
Und das ist halt genauso ein Schritt, glaube ich, der gerade in diesem Chat CPT passiert ist, wo OpenAI jetzt so eine Art Game Changer online gestellt hat,
0:14:43–0:14:44
wo man einfach chatten kann.
0:14:45–0:14:50
Man kriegt auf jede Frage eine Antwort und.
0:14:52–0:15:00
Ich habe interessante Sachen darüber gelesen. Da hat jemand mal gefragt Einfach so Social Media, Was war für euch gut?
0:15:01–0:15:03
Es war ein besonderes Erlebnis mit diesem Chatbot.
0:15:04–0:15:06
Und eine Person meinte Ich habe mich getraut.
0:15:07–0:15:15
Also Doktorandin. Ich habe mich getraut, Checkpoint Fragen zu stellen, die ich meinem Supervisor nicht hätte stellen wollen.
0:15:16–0:15:29
Und der Supervisorin? Ich weiß es nicht. Und das fand ich total interessant, Weil du hast halt bei diesen Antworten, die Antworten haben so eine bestimmtes, so ein Konferenz, die kommen halt mit viel Nachdruck.
0:15:30–0:15:36
Und dass dann jemand wirklich das Gefühl hat, sich lieber einen Chatbot mit Charme besetzten Fragen zu wenden,
0:15:37–0:15:47
Sachen, die man eigentlich wissen müsste, wo man trotzdem Hilfe braucht, dass man da irgendwie an den Chatbot geht und nicht an seinen Supervisor oder Supervisorin, das ist ja auch irgendwie interessant.
0:15:48–0:15:51
Dann habe ich mich selber hingesetzt, habe dann irgendwie gedacht.
0:15:54–0:16:01
Also auch mal ausprobieren. Und bei mir kam jetzt aber nichts wirklich raus, was mich total beeindruckt hätte.
0:16:01–0:16:12
Ich habe dann irgendwie gedacht ach, mach ich mal irgendwie sowas, weil der Typ jetzt, da geht es halt um Text, das heißt diese, diese, dieses Modell oder diese.
0:16:12–0:16:16
Dieser Datensatz hat unglaublich viel Text gelesen.
0:16:16–0:16:29
Da habe ich gedacht, das ist ganz sicher, dass der natürlich auch so Fabeln kennt und habe dann halt so Fragen gestellt Was wäre eine psychoanalytische Deutung von es, ob es Fabel mit dem Fuchs und dem Bär?
Florian Clauß
0:16:30–0:16:32
Es ist, was? Es.
Micz Flor
0:16:32–0:16:40
Das sind, äh. Das sind so kurze Fabeln. Kennst du vielleicht auch so der, der, der Löwe, das ist so der Löwe. Und der Fuchs zum Beispiel.
0:16:41–0:16:43
Der Löwe? Fragt ein Tier den Dachs.
0:16:46–0:16:49
Rieche ich gut. Und der Dax sagt so Orly, du stinkst.
0:16:50–0:16:57
Und dann frisst er den Dax auf. Dann fragt er. Keine Ahnung. Storch, rieche ich gut? Störe ich? Du riechst. Du riechst super.
0:16:58–0:17:03
Dann frisst er auch den Storch auf. Und dann fragt ein Fuchs Rieche ich gut? Und dann sagt der Fuchs Ich habe leider Schnupfen.
0:17:04–0:17:09
Also so solche solche kurzen Fabeln sind es, und die sind alle immer relativ offen.
0:17:09–0:17:18
Da gibt es dann so bestimmte Deutungssätze, die manchmal auch drunter stehen, so von wegen keine Ahnung, Guides, öffnet dir nicht die Welt oder solche Sachen.
Florian Clauß
0:17:19–0:17:27
Sie würde in der Psychotherapie eingesetzt oder gar nicht. Das wäre jetzt nur dein dein, denn dein point of interest.
Micz Flor
0:17:22–0:17:24
Nee, gar nicht. Das war einfach meine.
0:17:27–0:17:36
Und dann kommt halt was raus, wo du denkst So, das ist wie so ein Neuntklässler, der halt so schummelt, also dann kommt halt so was.
0:17:37–0:17:40
Egal ob es deutsch oder englisch ist. Es war interessanterweise auch sehr, sehr ähnlich.
0:17:41–0:17:53
Also ich hätte da erwartet, dass da vielleicht auch Unterschiede drin sind. Aber Deutsch und Englisch waren gleich, so dass ich eher dachte, dass es hin und her übersetzt wird, anstatt dass es unterschiedliche Datensätze sind zum Lernen.
0:17:53–0:18:02
Und da standen halt so Sachen. Ja, man könne die Fabel von Äsop und dem Bären auch psychoanalytisch deuten,
0:18:03–0:18:14
und als eine Metapher sehen auf die unbewussten und vorbewussten Ängste und Wünsche, die man sich nicht traut zu sagen, wenn halt irgendwelche Gemeinplätze so reingeklebt.
0:18:15–0:18:16
Aber wie auch schon.
0:18:18–0:18:23
Diese Doktorandin erlebt hat mit einer unglaublichen so sehr auf Konferenzen.
0:18:23–0:18:33
Das klingt halt wirklich erst mal so wie so ein Neuntklässler, der sich halt irgendwie ganz schnell noch irgendwas runterschreibt, die Sätze ein bisschen umbaut, um die Hausaufgaben abgeben zu können.
0:18:35–0:18:41
Und das war bei unterschiedlichsten Sachen so, dass ich das Gefühl hatte, dass das oft.
0:18:43–0:18:48
Gut zusammengesetztes Muster war aber nicht unbedingt.
0:18:52–0:19:00
Keine Ahnung. Also bei dem Dali Ding, da hatte ich dann immer noch so das Gefühl, dass wirklich was neues passiert. Auch wenn man wusste, es wird alles gemischt und berechnet.
0:19:00–0:19:12
Man kannte alle Stile, man hat ja auch immer Götz seine wiedererkennen, aber es war trotzdem was Neues und da hatte ich so nicht das Gefühl bei dem, was ich gesehen habe, dass es wirklich was Neues bringt und.
0:19:15–0:19:16
Jetzt habe ich den Faden ganz kurz.
Florian Clauß
0:19:16–0:19:22
Aber ich finde direkt die Beispiele, die ich auch von Tweety mitbekommen habe.
0:19:23–0:19:29
Ich glaube, dass es durch diese doch irgendwie abstraktere Funktion des Textes,
0:19:31–0:19:41
viel mehr ein Tool, was sich in den Alltag integrieren lässt, als es diese ganzen Bildbearbeitung da ist, halt dieses schöpferische Neue usw..
0:19:41–0:19:54
Ich meine, das klingt jetzt dann auch irgendwie eine Industriereife und kann natürlich dann halt in irgendwelchen Fotoprogramme usw. direkt auf deine auf auf dem Handy zur Kamera laufen. Wie auch immer.
0:19:55–0:20:04
Aber die Idee hat glaube ich schon ganz konkret eine Funktion, die du sofort adaptieren kannst. Du hast das Beispiel mit dem Jungen.
0:20:05–0:20:11
Ja, das war ja auch der erste Aufschrei. Jetzt müssen die Kinder nicht mehr ihre Hausaufgaben machen. Du kannst ja auch so einen Mut mitgeben.
0:20:11–0:20:20
Ich kann nur sagen Bitte schreib mir jetzt hier einen Aufsatz über über Goethes Farbenlehre, aber im Stil von einen 12-jährigen Schüler.
0:20:21–0:20:28
Und dann kriegst du es halt so. Das ist ja irgendwie, das ist ja super tauglich, oder? Es ist jetzt ein anderes Beispiel von so einem, von so einem.
0:20:29–0:20:36
Ich glaube, es war so ein irgendwie so ein Typ aus der Baumschule oder so was. Oder der Gärtner. Ja, genau das.
Micz Flor
0:20:34–0:20:44
Ja, das habe ich auch gelesen. Wo einer sagt ich bin gerade Mentor für so einen Jungen, der hat dann eine eigene Landschaft aufgemacht und ich habe jetzt so was gebaut, wo ich das irgendwie zusammen pipe.
0:20:44–0:20:54
Und dann pfeife ich seine Fragen und dann hat so ein beispielhaften Satz so von wegen dir, Sir, aber liegt schon vor mir. Dann very capable of the innovation.
0:20:55–0:20:57
Aus dem Ausgangstext Was er gemerkt hat, ist gar nicht.
0:20:59–0:21:10
Der hat, der hätte das so nie schreiben können. Und der Mentor hat dann ganz stolz berichtet, dass dann sein Zögling quasi 220.000 $ Kontrakt bekommen habe.
0:21:11–0:21:13
Und man guckt sich das an und denkt halt so.
Florian Clauß
0:21:14–0:21:28
Äh, ja, aber es sind halt solche, solche Sachen, die werden jetzt so quasi automatisiert erledigt, weil es total praktisch ist, dass diese, diese anschreiben, die Formulierungen usw.
0:21:28–0:21:34
Kannst du einfach hinwerfen und zu sagen gib mir mal einen Text raus und du sparst einfach Zeit.
0:21:34–0:21:36
Ich finde es als Vorstellung unglaublich.
Micz Flor
0:21:38–0:21:42
Ja, das stimmt. Also das ist ja auch so, dass.
0:21:44–0:21:57
An Universitäten ist ja auch ein großer Aufschrei. Da wurde dann auch getestet anhand von Personal, die halt irgendwie studentische Arbeit retten müssen, dass die gemeint haben,
0:21:58–0:22:09
sie könnten nicht wirklich einzelne Absätze oder kurze Texte identifizieren, die jetzt durch AI, also Open Air,
0:22:10–0:22:13
hergestellt wurden oder von Studierenden kamen.
0:22:13–0:22:17
Das ist natürlich dann eher so der Fall, sag ich mal weicheren.
0:22:20–0:22:28
Weiteren wissenschaftlichen Arbeiten, die auch von meinen geprägt sind, also die psychoanalytische Interpretation von Elisabeth Observ.
0:22:29–0:22:36
Das hat nicht geklappt, auch wenn ich die Psychoanalyse keine harte Wissenschaft ist und für ganz harte Wissenschaft theoretische Physik.
0:22:37–0:22:47
Habe ich auch irgendwo gelesen, dass eine Wissenschaftlerin eine ganze Reihe von Texten hat erstellen lassen, wo sie meinte, dass.
0:22:48–0:22:53
Fatale ist halt, die klingen alle erstmal sehr plausibel, sind aber sachlich falsch.
0:22:53–0:22:56
Das heißt, es klingt dann wie eine Publikation.
0:22:58–0:23:07
Und die Frage ist natürlich, wie viel von deiner Publikation kannst du jetzt schreiben, die dann natürlich nicht erkannt wird, wenn wenn.
0:23:07–0:23:11
Du diese Dienste nutzt. Die halt, heißt es manchmal im Englischen.
0:23:12–0:23:15
Also wenn es Fälschungen sind oder Kopien Kopien sind.
0:23:17–0:23:21
Und gleichzeitig. Ist halt falsch.
0:23:21–0:23:27
Auch da wieder Mit viel Konferenz wird es halt irgendwie in die Welt gehauen, so dass man es halt erst mal glaubt.
0:23:28–0:23:30
Hab ich auch eingesehen, der halt irgendwie meinte.
0:23:32–0:23:43
Der hat gefragt, was kriegt man, wenn man von zehn 10 % abzieht von dem was man dann hat, 10 % wieder dazuzählt?
0:23:44–0:23:57
Und weil die falsche Antwort von Zschäpe die ist es, wenn du von zehn, also wenn du von 100 % 10 % abziehst, hast du 90 %. Wenn du dann 10 % wieder zu fügst, hast du natürlich wieder 100 %. Also ist das Ergebnis das Gleiche.
0:24:00–0:24:06
Ähm, kam halt irgendwie so die Intervention von dem, der das eingegeben hat, wieder.
0:24:07–0:24:08
Nein, das Ergebnis ist nicht richtig.
0:24:09–0:24:12
Und dann kam die Antwort. Natürlich ist das Ergebnis nicht richtig.
0:24:14–0:24:18
Weil wenn man nämlich bei 90 % 10 % drauf nimmt und hat dann ewig so weiter geredet.
0:24:18–0:24:31
Aber du merkst halt irgendwie, da ist so ein Satz, so eine Fassade, so was Fassade wäre so, als ob im Hintergrund jemand so ein bisschen fanatisch nach nach einer Lösung sucht, während er nach vorne raus am Radiomikro.
0:24:31–0:24:36
Die die Leute unterhalten muss, weil er darf jetzt nicht mehr wegschauen. Das.
0:24:38–0:24:40
Aber das ist halt. Jetzt sind wir wieder in der lauten Straße.
Florian Clauß
0:24:41–0:24:50
Vielleicht können wir jetzt hier einfach gucken, dass sich das wieder staut und dann kann ich einen Abstecher wieder in die Wuhlheide machen,
0:24:51–0:24:58
und dann ein bisschen abseits von dem Lärm.
0:25:00–0:25:01
Okay.
Micz Flor
0:25:03–0:25:13
Und damit es irgendwie so ganz gut eingefangen wird. Müssen wir glaube ich schon ganz kurz mal durch dieses Konzept von Lernen durchgehen.
0:25:13–0:25:21
Weil das ist auch so ein eigentlich Thema. Eigentlich habe ich das Gefühl, je mehr man da reinguckt, ist es eine Frage von Definition.
0:25:23–0:25:31
Also ich glaube, dass das das sowohl das Wort künstlich als auch das Wort Intelligenz, das Sinnhafte, was die Menschen darunter verstehen.
0:25:31–0:25:38
Das ist falsch. Ich glaube, von vielem, was ich so gelesen habe, ist es halt irgendwie einfach eine andere Form von Maschinen lernen.
0:25:44–0:25:48
Bei diesen Lernprozessen, für was wir künstliche Intelligenz nennen.
0:25:48–0:25:55
Da gibt es dann mehrere Unterscheidungen. Zum Beispiel ist es eine supervidierte oder nicht zu lernen.
0:25:55–0:26:04
Das ist ganz einfach erklärt, dass man zum Beispiel so was wie ein Textwolke bereitstellt, in der gelernt wird.
0:26:05–0:26:17
Man kann dann aber dem Algorithmus, der das alles analysiert, irgendwie sagen So, jetzt gebe ich dir mal so und so viel Megabyte Sport und jetzt gebe ich dir so und so viel Megabyte Musik.
0:26:18–0:26:28
Das heißt, da ist eine Form von Supervidieren, in der das Material vorbereitet wird und nicht supervidiert ist. Einfach loslassen.
0:26:30–0:26:39
Und auch da kann man einfach. Mit unterschiedlichen algorithmischen Fragestellungen kann man dann natürlich so eine künstliche Intelligenz,
0:26:40–0:26:46
so ein Lernprozess begleiten, dass man zum Beispiel so was sagt wie bei Texten?
0:26:50–0:26:58
Rate bitte jedes Mal das erste Wort des nächsten Satzes, wenn das erste Wort des ersten Satzes heute oder gestern ist.
0:26:59–0:27:05
Und dann einfach solche stochastischen Zusammenhänge zu finden, die dann später eben genutzt werden, um.
0:27:11–0:27:15
Das Gelernte quasi wieder anzuwenden. Nee, doch nicht links.
0:27:16–0:27:19
Weiter ist es eine Sackgasse. Die Kiwi. Hier links.
Florian Clauß
0:27:20–0:27:24
Ich war schon froh, dass ich jetzt an dem Punkt sind, wo wir endlich die Straßen verlassen können.
0:27:25–0:27:33
Aber dem war nicht so. Also sag nochmal das Wort, was du dazu gesagt hast, eben diese in Bezug auf algorithmisch.
Micz Flor
0:27:34–0:27:39
Es gibt das supervidierte Lernen und das nicht Super Wide Superweissen nonstop was im.
Florian Clauß
0:27:36–0:27:37
Super wie dir.
0:27:40–0:27:48
Also okay, das ist jetzt wirklich so! Also so quasi so ein Fachwort aus der Traininggeschichte von von Machine Learning.
Micz Flor
0:27:46–0:27:48
Genau. Machine Learning.
Florian Clauß
0:27:48–0:28:02
Und es gibt ja so diese hart Gesottenen, die sagen, es gibt keine künstliche Intelligenz, es gibt halt nur ein Learning, was dann eine gewisse Ausprägung bekommt. Und wie du sagst, eben jemand.
0:28:02–0:28:04
Je mehr Material, desto,
0:28:07–0:28:15
ja desto besser das Ergebnis. Je mehr Trainingseinheiten, desto eindeutiger oder desto spezifischer wird es. Denn.
0:28:15–0:28:21
Das sind ja so diese, diese Arten, wie trainiert oder wie dann solche Produkte dann entstehen.
Micz Flor
0:28:22–0:28:30
Genau. Und das Interessante ist ja dann oft, dass das Interessante für die weitere Forschung oft nicht was klappt, sondern was nicht klappt.
0:28:31–0:28:32
Das soll dann zum Beispiel.
0:28:35–0:28:43
Bei Bilderkennung, also solchen Sachen. Dann hast du 100.000 Ampeln, die du gerendert hast und dann geht eine Ampel nicht.
0:28:43–0:28:46
Und wird dann keine Ahnung. Wird dann als.
0:28:49–0:29:03
Das ist für Saurier erkannt oder was weiß ich. Es ist halt manchmal wirklich so, dass Fehler entstehen, wo man auch merkt, in dem Moment, wo diese diese von von dem Material abstrahierte Netzwerk an Information, dass das halt.
0:29:06–0:29:13
Dass das halt so auch nicht mehr verstanden werden kann. Was man ja auch gemacht hat, dass es halt mit dem Super nicht zu lernen.
0:29:13–0:29:17
Du hast zum Beispiel bei vielen Bilder kein Programm, dann nehmen die also Stockfotos.
0:29:17–0:29:24
Stockfoto ist halt voll von irgendwelchen hübschen Tomaten, hübschen Menschen, hübschen Wohnungen und so was.
0:29:24–0:29:35
Das heißt, das ist Trainingsmaterial. Und nicht von ungefähr erkennt man dann, dass diese entstehenden Netzwerke einen eingebauten Bias haben,
0:29:36–0:29:43
dass diese scheinbare Vorliebe haben für Palmen und blaues Wasser gegenüber all dem anderen Schaum oder der auch noch Wasser ist.
0:29:43–0:29:57
Und und diese Bias wiederum, die sollen dann irgendwie teilweise nachträglich rausgerechnet werden, sodass man diese Millionen, die man da reingesteckt hat, um das zu trainieren, weil das ist halt auch noch eine ganz wichtige Frage finde ich was?
0:29:58–0:30:08
Also was auch dann noch mal den Mensch von diesen Netzwerken unterscheidet Wie viel Energie brauche ich überhaupt, so was herzustellen und aufrecht zu erhalten? Wäre es nicht interessanter.
0:30:10–0:30:23
Zu gucken, wie energieeffizient man das machen kann und das als Indikator für Erfolg zu nehmen, als die Erkennungsraten oder erfolgreichen Turingtests?
0:30:27–0:30:32
Diese Bikes, die entstehen natürlich auch im Super Weiß Learning.
0:30:32–0:30:35
Zum Beispiel war es so bei dem CTBT, da kann ich einen Link machen.
0:30:35–0:30:40
OpenAI hat da selber einen Artikel drüber geschrieben, wo das drin vorkommt, dass zum Beispiel die,
0:30:43–0:30:57
dieses Modell, das ist noch der nächste Schritt reinforced oder non reinforced learning. Also wird einfach das losgelassen und dann kriegt es auch ein Feedback, dann kriegt es halt quasi gesagt gutes Ergebnis, nicht so gutes Ergebnis.
0:30:57–0:31:01
Und das wird dann wieder in dem neuronalen Netzen mit abgebildet.
0:31:01–0:31:15
Und da und da war es so, dass anfangs bei diesem ZGP längere Sätze von den Leuten als positiver bewertet wurden, was irgendwie intelligenter klang oder wahrhafter Klang.
0:31:15–0:31:25
Das heißt auch, du kriegst dann auch über über Feedbackschleifen die Menschen wieder reinbringen, die die Ergebnisse eigentlich verbessern soll. Kriegst du auch wieder Beißer eingebaut?
0:31:26–0:31:29
Das ist ja auch noch mal ganz wichtig. Und.
0:31:33–0:31:40
Dann gibt es noch die Möglichkeit, wenn man zum Beispiel Non Super Learning einfach macht.
0:31:41–0:31:47
Da könnte man sich auch vorstellen, dass da trotzdem relativ komplexe Fragestellungen bearbeitet werden könnten.
0:31:48–0:31:55
Man könnte sich zum Beispiel vorstellen, was ein Schachspiel. Und du siehst nur diese Position und weißt Weiß muss jetzt ziehen.
0:31:56–0:32:05
Und du kennst aber die Regeln des Schachs gar nicht. Aber ähnlich wie bei diesem Bild Generation generieren.
0:32:06–0:32:08
Wenn ich über dem Bild generieren, kann es halt sein.
0:32:08–0:32:20
Bist du trotzdem einfach in der Summe der Position auf dem Schach und der Bilder, die dir gegeben werden. Verstehst du? Wenn ich jetzt hin ziehe, dann führt das öfter zum Sieg.
0:32:21–0:32:27
Bei Schach ist es jetzt vielleicht schwierig, weil man da unglaublich viele komplexe Situationen herstellen kann auf dem Feld.
0:32:28–0:32:32
Aber es gibt immerhin auch einfach eine Möglichkeit zu sagen okay, ich habe keine Ahnung, worum es hier geht.
0:32:32–0:32:42
Ich weiß nur, wenn jetzt dieses Feld mit dem besetzt ist, dann ist die Wahrscheinlichkeit, das hinten raus eine Belohnung kriegt, deutlich größer.
0:32:43–0:32:47
Und das ist dann wirklich ohne Model.
0:32:47–0:32:53
Also Model heißt halt quasi. Man kann natürlich auch am Computer erst mal Schach beibringen und die Regeln geben.
0:32:53–0:33:00
Das heißt, er kann nur Züge machen, die da drin in dem Regelheft abgebildet sind. Und das ist dann.
0:33:03–0:33:03
Mit einem Model.
Florian Clauß
0:33:05–0:33:17
Interessant und das sind so verschiedene Methoden, um halt zu einer gewissen äh. Also um, um die. Um das. Um die Maschine zu trainieren.
Micz Flor
0:33:17–0:33:27
Und da gibt es halt. Ich weiß gar nicht, ob das auf YouTube auch ist oder nur irgendwie auf Netflix oder anderem, aber es gibt eine sehr schöne Doku über diese Go, dieses,
0:33:28–0:33:33
die und in der Doku ist ist es so da bei dem Training dieses Systems war es ja so,
0:33:34–0:33:47
dass zuerst wurden die Regeln vorgegeben und es hat sich Spieler angeschaut und dann später war es aber so, dass zum Ersten Mal erfolgreich auch zwei künstliche Intelligenz Systeme gegeneinander gespielt haben.
0:33:48–0:33:55
Und ich glaube sogar im letzten Schritt war es so, dass die Regeln nicht mehr vorgegeben wurden, sondern anhand des Wissens um,
0:33:56–0:34:06
schon gespielter Partien und dem Spielen eigene neue Partien die Regeln aus dem Spiel erschlossen wurden.
Florian Clauß
0:34:06–0:34:07
Er Wahnsinn.
Micz Flor
0:34:07–0:34:16
Und in der Doku, in der glaub ich von drei Spielen eins von dem Go Meister gewonnen wird, die zwei anderen von der Maschine.
0:34:17–0:34:23
Da gibt es doch so einen Punkt. Weil die zwei Moderatoren, eine Moderatorin, ein Moderator, die haben halt wie so ein,
0:34:25–0:34:37
wir kennen das halt eher vom Schach, weil Go ist ja nicht so populär, aber nur so ein großes Go Brett und dann werden halt immer diese Steinchen abgebildet und die reflektieren, was könnte das sein, was hat der jetzt vor und so und da gibt es halt dann eine Situation,
0:34:37–0:34:39
die echt sehr schön zeigt,
0:34:40–0:34:43
dass dann doch auch da was neues in die Welt kommt.
0:34:43–0:34:47
Weil in diesem Go Board gibt es dann immer so Inseln von Stein.
0:34:48–0:34:52
Ja und auf einmal legt dann die Maschine, legt dann den Stein so ins Nichts hinein.
0:34:54–0:35:03
Plump, der liegt dann so und du merkst ja, bei den beiden, die moderieren, ist ja erst mal so stille, hä?
0:35:04–0:35:08
Und dann großes Lachen. Oh, ist halt doch nur eine Maschine. Weiß nicht, was sie tut.
0:35:09–0:35:20
Und dann stellt sich aber raus, dass das halt so der geniale Zug war, wo das Ganze dann kippt, dass dieser eine Stein dann auf einmal eben das Feld beherrscht und so viel anderes nicht mehr zulässt.
0:35:21–0:35:32
Und das fand ich so ganz interessant, weil das war wohl so ein Punkt, wo wirklich auch die Experten Experten gesagt haben, das ist jetzt kein menschlicher Zug, der kommt halt, ist es der Siegerzug von der Maschine?
Florian Clauß
0:35:32–0:35:41
Ich meine, bei den ganzen trainierten Maschinen ist es ja so, dass die am besten in so bauen det Kontext funktionieren.
0:35:41–0:35:47
Deswegen ist dann halt irgendwie Schach und Go so ein beliebtes Feld, weil es halt ein klares Regelset ist.
0:35:47–0:35:51
So ein bisschen irgendwie, wie wie,
0:35:53–0:36:02
automatisiertes Fahren auf der Autobahn sehr einfach ist, weil du hast dann eine ganz klare Markierung, an denen kannst du dich orientieren und der Rest ist dann halt Berechnung.
0:36:02–0:36:14
Und das war's jetzt dann immer so, dass ich sag mal, die Herausforderung ist das in Form von wie kriegt man das jetzt irgendwie nicht geboxt,
0:36:15–0:36:26
wie kriegt man, wie kriegt man so dass man tatsächlich das Gefühl hat da so eine Form von Selbstbewusstsein, weil so eine Go Maschine ist ja nicht selbstbewusst, sondern eine Maschine ist halt irgendwie so,
0:36:27–0:36:31
ja, also kann halt irgendwie gut Go spielen und ähm.
0:36:32–0:36:46
Aber ich glaube das ist so nochmal so dieser der Referenzraum, wenn der sich dann halt so quasi auf so eine Welt, die dann halt sehr divers ist, wenn sich das dann halt so erweitern kann, das ist ja das Spannende.
Micz Flor
0:36:48–0:36:52
Ja, und das ist halt auch. Du kennst das Spiel Pong.
0:36:53–0:37:01
Wenn man zum Beispiel das also rechts und uraltes Spiel rechts und links zwei weiße Balken hoch und runter war ein Analogstick.
0:37:01–0:37:05
Also man konnte dann auch ganz schnell hoch oder runter machen und,
0:37:06–0:37:16
dazwischen ein weißer Würfel, der dann wieso Tennis, der hin und her fliegt und bei wem er dann hinten durchfliegt, der nicht zurück abwehren kann, der verliert einen Punkt oder einen Punkt dazu.
0:37:17–0:37:20
Und da ist es zum Beispiel, was ich vorhin meinte Wenn du ein Schachbrett dir anschaust,
0:37:22–0:37:34
da hast du ein Regelwerk, was die Maschine weiß oder nicht weiß, aber man kann trotzdem einfach auf das Bild gucken und kann ein Urteil fällen und kann dann sagen okay, das wäre ganz gut, dass wir ganz gut das Risiko.
0:37:34–0:37:48
Oder bei Pong zum Beispiel, da könntest du, wenn du zwei Bilder hast und du weißt, sind eine halbe Stunde halbe Sekunde auseinander, dann könntest du halt, wenn du wenn du ein.
0:37:49–0:37:55
Ein algorithmisches Wissen um das Spiel hast, könntest du vorher errechnen, wo diese Ball hinfliegt?
0:37:56–0:38:02
Wenn du nur ein Bild siehst, dann weißt du nicht, ob das von dir in deine Richtung fliegt und wegfliegt.
0:38:03–0:38:11
Du weißt nicht, ob es gerade fliegt, ob es schnell fliegt. Das heißt, du kannst dann anhand von einem Bild, so einem einfachen Spiel wirklich nicht viel sagen.
0:38:13–0:38:24
Und das ist halt immer der Punkt. Du musst dann halt gucken, welche Aufgabe stellst du diesem Experiment, sag ich mal, und dementsprechend musst du dann halt ein Modell auswählen, was halt auch gut.
0:38:25–0:38:33
Die Problemstellung passt, was jetzt gerade eben auch ein großes Thema ist, eben auch mit KI für Fahrzeuge und so.
0:38:33–0:38:48
Das ist halt so ein prozedurales Umfeld, was sich halt permanent auch verändern kann und was eben aber auch in sich selbst keinen Abbruch. Wie du sagst Box abgeschlossen, Raum hat, in dem etwas immer wieder durchgespielt wird, sondern was sich auch wieder verändert hat.
0:38:48–0:38:56
Wir sind dann schon der Halt, der neue Pfade hat und das Wissen was die AI da lernen muss, ist nicht.
0:39:00–0:39:09
Also es fängt jedes Mal wieder von null an. Wo man da wirklich so das Gefühl hat, dass es in dem Moment vielleicht sogar besser bot zu schreiben, als KI zu trainieren.
0:39:10–0:39:17
Weil du musst Dinge in Anführungszeichen verstehen, interpretieren, abwägen und dann Entscheidungen fällen.
0:39:18–0:39:25
Und diese stochastischen Modelle von vielen Kids, die sind da nicht unbedingt die besten Möglichkeiten.
0:39:27–0:39:34
Was mich halt auch noch in eine andere Sache zurückführt. Was ich ganz spannend finde, ist, dass die KI jetzt so abgeht.
0:39:35–0:39:40
Das war für manche vielleicht klar, aber es ging jetzt enorm schnell.
0:39:40–0:39:44
Es entsteht da so ein ganz komischer Raum, auch wo unglaublich viel Geld reingepumpt wird.
0:39:45–0:39:52
Zum Beispiel ist bei diesem Z petit, das kostet angeblich 100.000 $ pro Tag das am Laufen zu haben.
0:39:53–0:40:02
Es wird wohl auf Microsoft asur gehostet. Habe ich in einem Artikel gefunden und das heißt 3 Millionen pro Monat werden reingesteckt, nur damit es läuft.
0:40:03–0:40:09
Also es sind immense Summen, die da gerade verbraten werden, um auch Reviere abzustecken.
0:40:10–0:40:14
Und gleichzeitig, um natürlich auch Futter zu kriegen, dass die.
0:40:18–0:40:20
Gleichzeitig auch Futter zu kriegen, das die Maschinen besser lernen können.
0:40:22–0:40:23
Ähm.
Florian Clauß
0:40:24–0:40:26
Ganz gut. Wünsch dir was. Denkst du?
Micz Flor
0:40:27–0:40:30
Es ist total lustig. Unser. Unser Weg ist so ein bisschen.
Florian Clauß
0:40:32–0:40:42
Wir können. Ja, wir können also wieder zurück oder so Richtung Auto, dass Autos da ist. Und dann brauchst du noch ein bisschen länger.
Micz Flor
0:40:43–0:40:46
Ich habe noch gar nicht angefangen. Geht er.
0:40:46–0:40:51
Es geht, Dann drehen wir jetzt um und ich nehme den Rückweg von dieser Allee für mein eigentliches Thema.
0:40:57–0:41:00
Gut, das war jetzt quasi der, der das Vorspiel.
0:41:01–0:41:08
Und jetzt? Point of no return gibt es hier nicht, sondern point of return. Die Rückweg nehme ich für mein eigentliches Thema.
0:41:11–0:41:22
Wenn man sich mit diesem Künstliche Intelligenz Thema auseinandersetzt, dann geht es ja immer auch darum, dass man das auf so einer menschlichen Ebene sieht. Ich habe ganz kurz von diesem Bike angesprochen.
0:41:22–0:41:34
Also es gibt bei der Psychologie zum Beispiel den Rosenthal Effekt. Das ist genau so ein Bias, wenn man den Forschern sagt diese Ratte ist echt clever, diese Ratte ist echt dumm.
0:41:35–0:41:42
Dann wird die Ratte, die echt clever ist, sich besser. Also es wurde auch wiederholt das Experiment.
0:41:43–0:41:47
Die findet sich besser im Labyrinth zurecht als die, die angeblich dumm ist.
0:41:48–0:41:51
Das heißt, die Versuchsleitung hat dann Einfluss.
0:41:51–0:41:56
Die innere Einstellung gegenüber dem Tier hat einen Einfluss auf die Ergebnisse, die da rauskommen.
Florian Clauß
0:41:56–0:41:58
Und wie kriegt das Tier das mit? Ja.
Micz Flor
0:41:58–0:42:00
Ja, spannende Frage. Dann.
Florian Clauß
0:42:00–0:42:02
Wieso denn?
Micz Flor
0:42:02–0:42:05
Transpis. Weitergabe von. Von Attitüde und.
Florian Clauß
0:42:06–0:42:10
Aber es ist jetzt. Aber das ist doch genau diese Sache von Doppelblindstudien.
Micz Flor
0:42:10–0:42:23
Genau das war der Rosenthal Effekt. War auch ein ganz wichtiger Stepstone in dieser Umstrukturierung. Von diesen ganzen Studien ist man Doppelblind heißt eben, dass.
0:42:24–0:42:38
Keiner gar nichts weiß, also wie der Versuchsleiter weiß, ob da jetzt Substanz, wenn es Medizin ist, zum Beispiel Substanz drin ist oder nicht. Und das wird quasi komplett getrennt und versucht random zu randomisieren.
0:42:40–0:42:45
Und wenn wir jetzt also künstliche Intelligenz, diese ganze Angst, die da ist, die ist ja.
0:42:48–0:42:53
Ist ja irgendwie daran. Das berührt unsere eigene Existenz.
0:42:53–0:42:58
Also angenommen, man würde sagen. Man würde sagen, es ist Maschinenlernen.
0:42:59–0:43:05
Das würde die Leute nicht so anspornen, mitzureden, wie wenn man sagt Künstliche Intelligenz.
0:43:06–0:43:13
Insofern ist dieses Wort natürlich für ihre Aufmerksamkeit super gewählt und.
0:43:15–0:43:19
Die Fantasien, die dahinter entstehen, sind aber natürlich sehr schnell auch okay.
0:43:19–0:43:24
Intelligenz, das ist etwas, das macht den Menschen irgendwie auch einzigartig. Wir haben davon am meisten.
0:43:24–0:43:32
Wir sind die dominante ste Spezies hier auf dem Planeten. Nicht weil wir die längsten Zähne haben, sondern weil oder am stärksten sind, weil wir die intelligentesten sind.
0:43:35–0:43:41
Auf unserer Intelligenz beruht diese Position. Wenn jetzt was entsteht, was potenziell sogar intelligenter ist als wir.
0:43:41–0:43:44
Das ist eine Bedrohung, da fühlt sich jeder irgendwie angesprochen.
0:43:45–0:43:55
Das war ja früher mit den Robotern so ein bisschen, dass die das in den Autoherstellern gedacht wurde. Die ganzen Menschen werden überflüssig.
0:43:57–0:44:03
Was natürlich in vielen Punkten auch passiert ist. Das heißt dieses Bild.
0:44:04–0:44:13
Mit dem man sich irgendwie eigentlich beschäftigt. Ist das Bild von einem menschenähnlichen der deutlich menschenähnlicher Em?
0:44:16–0:44:23
Neuronalen Netz. Was eben. Intelligenz möchte ich gar nicht definieren. Aber was?
0:44:24–0:44:26
Was eben nicht nur smarte Sachen kann.
0:44:28–0:44:39
Über den Begriff künstlich möchte ich mich jetzt gar nicht auslassen, weil das ja auch sehr fragwürdig. Was heißt künstliche Intelligenz? Aber es kann also smarte Sachen tun. Kann Autos rückwärts einparken?
0:44:40–0:44:42
Können wir Bilder malen? Also es kann eine tolle Sachen.
0:44:44–0:44:58
Und dann ist aber dieser zweite Schritt das man und das waren ja auch dann diese, die diese ich weiß gar nicht mehr bei welcher Firma war dieser eine Typ, der auf einmal im Chat mit einer mit einem neuronalen Netz entschieden hat?
0:44:58–0:45:05
Oh Gott, dieses Netz ist sich selbst gewahr, es kennt ja und wir haben es eingesperrt. Es leidet.
Florian Clauß
0:45:05–0:45:09
Ja, ja, das war. Das war glaube ich der Google Entwickler.
Micz Flor
0:45:10–0:45:11
Weil es auf Google. Ich weiß es immer. Ich möchte es.
Florian Clauß
0:45:11–0:45:16
Ja, es war irgend so irgend so einer, der dann halt dann gesagt hat ja das.
Micz Flor
0:45:16–0:45:21
Müssen wir bedenken, dass bei jeder großen Firma irgendwer schon mal gesagt aber wir gucken mal!
Florian Clauß
0:45:21–0:45:24
Wenn du natürlich deine Gelder für.
Micz Flor
0:45:25–0:45:36
Und. Und diese, diese Sorge, die dann eben auch diese moralischen Themen gleich nach oben kochen lässt.
0:45:36–0:45:40
Wir haben inzwischen natürlich auch schon eine Tierethik als einen Bereich, der,
0:45:43–0:45:48
seriös ist. Da ist nicht mehr so ein Blödsinn, sondern es ist ein seriöses Thema.
0:45:48–0:45:55
Und das nächste ist natürlich so eine Frage von Technikethik oder Maschinenethik. Oder ich weiß gar nicht, wie ich es nennen möchte.
Florian Clauß
0:45:55–0:45:56
Asimov sche Gesetze.
Micz Flor
0:45:57–0:46:03
Weil man. Weil man eben. Potenziell. Oder man drängt in eine Richtung.
0:46:05–0:46:08
Von der man noch weit entfernt ist, in der man,
0:46:10–0:46:23
ein Gewahrsein herstellt, was fehlerhaft und deshalb sehr wahrscheinlich leidend sein wird und das aber nicht unbedingt kommunizieren kann mit seinesgleichen, weil es auch noch alleine ist.
0:46:24–0:46:35
Was ich meine, also es ist so ein bisschen von innen heraus wird das entwickelt, von dem man jetzt schon sagt, naja, wir können gar nicht genau sagen, ob das jetzt irgendwie wirklich selbst wahr ist oder nicht, weil,
0:46:36–0:46:40
es kann ja auch ganz anders denken als wir, denn wenn wir es nicht wissen. Weißt du, ich.
Florian Clauß
0:46:40–0:46:46
Hey. Also, es ist. Ich versuche es zu verstehen, aber ist es so was wie, ähm.
0:46:47–0:46:59
Also das, was jetzt für mich sehr nachvollziehbar ist, diesen BIOS, den, von denen du erwähnt hast, in dem Moment, wenn halt quasi derjenige, der das System trainiert,
0:47:00–0:47:08
injiziert irgendwie auch seine seine Vorstellung, seine Moral in dieses System rein.
0:47:08–0:47:21
Also ganz, ganz abstrakt gesprochen, allein dadurch, dass er es trainiert, dass es da halt quasi eine Beziehung gibt zwischen dem, der also dem, der trainiert und dem dem Maschinen Learning.
Micz Flor
0:47:22–0:47:27
Genau. Aber da war ich jetzt schon. Da war ich schon weg. Eigentlich. Ich dachte jetzt eher so..
Florian Clauß
0:47:22–0:47:24
Und dadurch wird halt das initiiert.
Micz Flor
0:47:28–0:47:41
Ich dachte jetzt eher so, wenn wir nachher noch was essen gehen sollten und dann mit dem Ober über künstliche Intelligenz sprechen, dass der irgendwie so was sagt wie Ja, hoffentlich können sie so einen Koch ersetzen. Das kann man nicht essen, was der macht.
0:47:42–0:47:47
Also das diese diese Künste. Also da geht es gar nicht darum.
0:47:47–0:47:50
Ich finde, der Begriff künstliche Intelligenz selbst induziert,
0:47:53–0:48:03
etwas Bedrohliches und ist vielleicht sogar nicht strategisch deshalb entstanden, aber einfach kleben geblieben.
0:48:03–0:48:08
Irgendwann, weil alle Leute damit so Darth Vader mäßig am meisten verbinden konnten.
Florian Clauß
0:48:09–0:48:12
Ja, ja, ja, klar. Okay. Das ist irgendwie ein Begriff. Ja.
Micz Flor
0:48:13–0:48:28
Der eine Teil und der andere Teil ist natürlich, dass, wenn man das weiterdenkt, dass man eben das, was die Menschen da bedroht, nämlich dieses Gefühl, wir werden entweder ersetzt oder es wird halt irgendwas entstehen, was vielleicht sogar noch intelligenter ist als wir, Was dann? Vielleicht sogar.
0:48:29–0:48:34
Die viele Entscheidung besser macht, als wir das vielleicht sogar merkt. Die Menschen sind nicht gut für den Planeten.
0:48:34–0:48:38
Solche solche Fantasien gibt es ja auch.
0:48:43–0:48:52
Okay, das ist jetzt mal ein Kieks. So ein E Roller mitten in der Matschstraße im Nirgendwo.
0:48:53–0:48:54
Damit hat jetzt keiner gerechnet.
Florian Clauß
0:48:55–0:48:57
Ich denke auch, es käme ein Mountainbiker.
Micz Flor
0:48:56–0:49:00
Ich muss dann nachher, ich muss dann nachher irgendwie super aussortiert werden, diese Erfahrung.
0:49:04–0:49:11
Und diese. Was ich meinte mit der Tierethik, die jetzt auch so ai Ethik sein könnte, ist halt du.
0:49:11–0:49:24
Wenn du das herstellen würdest und es wahrscheinlich nicht mal mitbekommen müsstest, dann könntest du höchstwahrscheinlich im ersten Schritt etwas herstellen, was sehr leidet.
0:49:25–0:49:34
Meinst du also einen Horrorfilm? Gibt es das auch immer, wenn irgendwelche Dämonen zum Ersten Mal auf die Welt kommen, sich so manifestieren und dann manchmal so halb in einem Schrank drin hängen oder so ein Rohr durchs Auge kommt. Bist du.
Florian Clauß
0:49:34–0:49:36
Die müssen erst mal gerendert werden.
Micz Flor
0:49:36–0:49:43
Ja, Und du weißt, was ich meine. Diese Momente, wo man dann schieße. Hellraiser. Ich verstehe. Ich verstehe es noch nicht ganz. Warum?
Florian Clauß
0:49:39–0:49:42
Aber ich verstehe. Ich verstehe. Ich verstehe es noch nicht ganz.
Micz Flor
0:49:44–0:49:46
Warum man Leidenschaft in.
Florian Clauß
0:49:46–0:49:50
Aber in dem Moment, also warum das jetzt in die Welt kommt.
Micz Flor
0:49:52–0:49:59
Das ist nicht das, was gerade passiert. Das ist ja Maschinenlernen. Aber weil wir es künstliche Intelligenz nennen, also die.
0:50:00–0:50:03
Ich bin mal gespannt, wie das ist beim Abhören von dem Ganzen.
Florian Clauß
0:50:03–0:50:05
Dann leiden wir gänzlich.
Micz Flor
0:50:05–0:50:10
Wir leiden. Genau. Ich habe gerade. Aber manchmal bleibt mir die Luft weg.
Florian Clauß
0:50:08–0:50:11
Körper im Körper eingeschrieben. Das Leiden.
Micz Flor
0:50:12–0:50:23
Na ja, aber das ist ja, ähm. Ich glaube, dass der, um es mal zu sagen, der große Sprung zwischen dem, was gerade passiert, und zwischen dem, was alle befürchten. Er ist, ähm.
0:50:25–0:50:34
Inzwischen kann AI sehr viel besser bösartige Tumore auf Röntgen erkennen als Ärzte. Schneller und besser. So.
0:50:37–0:50:42
Und dann erkennt es das. Richtig. Punkt. Und was die Leute befürchten, ist.
0:50:43–0:50:49
Und dann weiß der auch, dass der das oder die oder das weiß. Das auch, dass es richtig ist.
0:50:49–0:50:55
Meint es auch. Es hat es abgewägt. Also es tut all diese Dinge, die wir als Mensch von uns kennen und.
0:50:59–0:51:06
Dieser Unterschied ist, glaube ich, enorm wichtig. Also kommt diese Information, die korrekt ist von.
0:51:08–0:51:11
Einem und da komme ich jetzt an das Selbst.
Florian Clauß
0:51:11–0:51:13
Ja, okay. Also, das ist er. Okay.
Micz Flor
0:51:13–0:51:25
Es geht quasi. Was wir jetzt gerade haben, ist, wenn ich es in der Therapie sage, wir haben jetzt gerade die Verhaltenstherapie oder streng genommen nur Behaviorismus, das heißt, wir sagen, egal was in dieser Box ist Turingtest mäßig, egal was da drin passiert.
0:51:27–0:51:40
Wir gucken nur, was reingeht, was rauskommt und nach Thüringen Test wenn das was rauskommt keiner sagen kann Für Mensch oder Maschine ist dann wenn es eine Maschine ist, dann hat die Turing Test bestanden.
0:51:41–0:51:44
Was da drin abgeht wissen wir nicht. So, und jetzt?
0:51:46–0:51:58
Ist es so, dass wenn wir da drin etwas schaffen, was genauso wie wir im Inneren Eigenschaften hat, die.
0:52:00–0:52:04
Zum Beispiel mit dem Leiblichen zu tun hat, mit dem Wesen zu tun haben.
0:52:04–0:52:12
Dieses Wort Quäntchen, was auch immer genannt wird, was eben Empfindsamkeit heißt, oder man kann Dinge empfinden,
0:52:13–0:52:20
das ist so eine Vorwahrnehmungsstufe, in dem man etwas empfindet, bevor man es wirklich deutlich erkennt.
0:52:20–0:52:33
Also hier versucht, diese neuronalen Netzwerke mit solchen Dingen auszustatten, ist dann irgendwie einerseits der Wunsch und andererseits die Sorge, dass man dann eben auch Wesen schafft,
0:52:34–0:52:37
die eine Form von Bewusstsein entwickeln könnten.
0:52:38–0:52:46
Und wobei das auch. Wiederum muss ich auch noch gleich was zu sagen und dann aber eventuell oder sehr wahrscheinlich darunter leiden.
0:52:48–0:52:52
Ja. Und die muss du einfach ausschalten. Ich halte. Du stellst quasi was her.
0:52:53–0:52:57
So ein bisschen wie bei Die Fliege. Kannst Ja.
Florian Clauß
0:52:58–0:53:05
Aber ich verstehe es immer noch nicht. Warum soll die darunter leiden? Ich dachte. Ich dachte. Ich. Ich dachte, ich hätte es nicht ganz verstanden. Weil,
0:53:08–0:53:09
du jetzt quasi. Jetzt nicht.
Micz Flor
0:53:09–0:53:14
Aber nehmen wir mal die Fliege. Nehmen wir mal den Film Die Fliege in der Version mit Jeff Goldblum.
0:53:15–0:53:25
Da gibt es ja dann diese diesen Wunsch, Lebewesen von A nach B zu transportieren, indem man sie in die Einzelteile zerlegt.
0:53:26–0:53:30
Dann von A nach B überträgt und dort wieder zusammenbaut.
0:53:31–0:53:34
Und dann ist da eine Fliege und Jeff Goldblum drin.
0:53:34–0:53:42
Dann werden die Atome zerlegt und wieder zusammengebaut und dann kommt Jeff Goldblum raus und verwandelt sich dann Tag für Tag in eine Fliege. So.
0:53:43–0:53:46
Also es war nicht sein Wunsch.
0:53:47–0:53:51
Er hat gedacht, er hat es irgendwie gecheckt und will es halt ausprobieren. Wusste nicht, dass Fliege mit drin ist.
0:53:51–0:53:55
Und er ist ja dann leidend. Er verändert sich auch im Wesen und er leidet.
0:53:57–0:54:02
Und ist es nicht sehr wahrscheinlich, wenn man mit Mäusen versuchen würde, so eine Art Gerät zu schaffen,
0:54:03–0:54:13
dass man wie im Film auch ganz viele halbtote Tiere dann irgendwie auf dem anderen Teil erst mal sieht, also ganz viel Leid herstellt.
0:54:13–0:54:21
Aber okay, das ist ja dann nachvollziehbar, weil du hast ja lebendige. Genau. Wir reden ja jetzt von.
0:54:24–0:54:35
Genau. Genau. Und das ist halt. Und das künstlich ist wiederum das künstlich ist halt wiederum dann eine menschliche Bias sozusagen. Also wir sagen künstliche Intelligenz.
0:54:35–0:54:37
Das entfernt sich dann auch ein bisschen von uns.
0:54:38–0:54:47
Es gibt inzwischen, glaube ich, sogar in der Physik über das Thema Bewusstsein, also können wir uns selbst erkennen und Bewusstsein haben uns.
0:54:47–0:55:00
Bewusstsein gibt es inzwischen auch da schon so eine Theorie, die andersrum denkt, die sagt, Bewusstsein ist in der Materie angelegt und komplexe Systeme sind in der Lage, immer mehr davon zu erschließen,
0:55:01–0:55:08
so als ob das quasi in der Materie ist und nicht wie wir.
0:55:08–0:55:18
Man denkt ja oft so, wenn das System komplex genug wird, dann kann es sich selbst bewusst werden und dann geht es wieder um das Selbst, um das Ich. Eigentlich reden wir doch gleich nochmal auf diese.
0:55:22–0:55:28
Oder ist es so, dass das Bewusstsein sowieso in der Welt ist? Und alles ist damit berührt?
0:55:29–0:55:36
Aber komplexe Systeme wie Menschen, einige Tiere, vielleicht auch Bäume, wissen wir nicht.
0:55:36–0:55:44
Die kommen damit schon in Berührung. In der Form, in der sie darüber reflektieren können, wie das zum Beispiel Steine nicht können.
0:55:46–0:55:53
Ja, das ist mir ziemlich esoterisch. Ja, stimmt, muss ich. Der müsste. Dann müssen wir vielleicht eine eigene Folge zu machen, weil.
0:56:08–0:56:09
Kaum dass gerade.
0:56:12–0:56:19
Es war toll, diesen Schub und Zusammenzucken. Ich dachte, es wird auch kalt. Mir ist auch echt kalt. Es ist schlecht.
0:56:19–0:56:22
Wir gehen. Wir gehen zum Auto. Also ist die Frage. Wie kriegen wir?
Florian Clauß
0:56:21–0:56:24
Also es ist die Frage, wie kriegen wir jetzt noch den Absprung?
Micz Flor
0:56:24–0:56:27
Ich mache einfach den zweiten Teil. Der zweite Teil wird folgendes sein.
0:56:29–0:56:32
Es gibt einen Begriff vom Selbst in der Psychodynamik,
0:56:34–0:56:40
Psychoanalyse, ursprünglich aber in der psychischen Dynamik. Und den würde ich gerne mal.
0:56:42–0:56:48
Ähm darstellen. Darum geht es halt. Oder? Dabei geht es darum, dass.
0:56:50–0:56:57
Freut ihn seine Idee mit dem Eis und ich dann irgendwann auch so ein selbst ich erfunden hat, weil er gemerkt hat.
0:56:58–0:57:03
Dass dieses System, was er versucht zu beschreiben, das steht auch mit einem Bild von sich selbst in Kontakt.
0:57:04–0:57:07
Wir können nicht einfach in der Welt sein, ohne ein Bild von uns zu haben.
0:57:08–0:57:13
Und das ist eine Sache, die dann, glaube ich, über das ganze 20. Jahrhundert hinweg weiter ausgetreten wurde.
0:57:14–0:57:16
Da gibt es ja dann auch so diese, diese.
0:57:19–0:57:23
Ja, wir merken es einfach, wenn du Auto fährst und du bist mit dem Auto verschmolzen.
0:57:23–0:57:27
Also, wir sind in der Lage, uns mit anderen Dingen zu verbinden.
0:57:27–0:57:35
Wir können irgendwie mit Rollerblades wie mit zwei Füßen arbeiten und so was. Das heißt, es gibt in uns ein Selbst, das entsteht.
0:57:36–0:57:41
Damit kommt man nicht auf die Welt. Man kommt aber mit der Fähigkeit auf die Welt, das zu entwickeln.
0:57:42–0:57:48
Man hat auch gemerkt, in manchen dramatischen Situation der Vergangenheit, dass das selbst nicht unbedingt entstehen muss.
0:57:49–0:57:54
Wenn es aber nicht entsteht oder nur brüchig entsteht, dann entstehen Menschen, die auch.
0:57:56–0:58:05
Manchmal große Probleme im Leben haben kann. Und dieses Selbst ist, glaube ich so der Punkt, an dem die nächste.
0:58:07–0:58:15
Ja, das wird so die nächste Aufgabe werden. Das ist, glaub ich der Holy Grail, der den Unterschied herstellt zwischen einem neuronalen Netz. Was einfach so ein.
0:58:16–0:58:26
Weißer Teig ist, der halt was kann. Egal ob das jetzt irgendwie aus Dioden gebaut ist, aus Transistoren, aus Neuronen, es ist wurscht, kann das lernen.
0:58:26–0:58:33
Man kann inzwischen auch schon mit Neuronen bestimmte Dinge lernen und die Neuronen verkoppeln sich selbst und machen was.
0:58:35–0:58:42
Und dieses Selbst ist, glaube ich so eben diese sehr, sehr, sehr unerreichbare Stufe.
0:58:44–0:58:49
Die allerdings beim Kind entsteht oder fast notwendigerweise entstehen muss.
0:58:51–0:58:58
Und weshalb ich dann denke, dass es doch spannend wäre, auch klinische Psychologie in die KI Forschung mit einzubeziehen.
0:58:59–0:59:12
Und gleichzeitig mir dann wünscht, dass eben auch hier ethische Experten und Expertinnen da mitreden dürfen, weil ich halt wirklich der Meinung bin, dass diese Form von selbst Gewahrsein.
0:59:15–0:59:18
Genau diese Grenze ist, wo man dann wirklich von ethischen Themen spricht,
0:59:19–0:59:30
und nicht mehr Ethik für Arbeit und Arbeitsmarkt und sonst was oder von Geldverteilung oder ohne, wirklich halt mit dem Produkt was man herstellt. Punkt.
Florian Clauß
0:59:31–0:59:34
Okay, spannend, großer Cliffhanger aufgebaut.
0:59:36–0:59:49
Die zweite Episode, die zweite Folge zu dem Thema kommt Ich. Ich trage das auf jeden Fall bei mir im Kopf rum, weil ich kriege es noch nicht so zusammen. Deswegen freue ich mich auf ein weiteres Gespräch.
Micz Flor
0:59:49–0:59:57
Ich muss mir das auch noch mal anhören, wenn ich diese Brustprellung weg habe. Vielleicht liegt es auch an meiner Leiblichkeit und meinem Körper, der mich da irgendwie.
Florian Clauß
0:59:57–1:00:04
Wenn selbst das dich wieder daran hindert, du selbst zu sein. Of Thrones Diese Szene, die finde ich ganz.
Micz Flor
1:00:00–1:00:05
Du kennst ja diese Szene in Game of Thrones. Diese Szene, die finde ich ganz toll.
1:00:05–1:00:09
Woodorholt. The Door. Dieser.
Florian Clauß
1:00:08–1:00:11
Für die auch jetzt ist gesagt.
Micz Flor
1:00:10–1:00:19
Es ist verraten. Und dieses hold the door, hold oder outdoor oder oder. Und er hält diese Tür zu, damit die Bösen nicht rauskommen und dann diesen Jungen, den er beschützt, umbringen könnten.
1:00:20–1:00:29
Und du merkst halt, dass so eine Situation, wo er halt so von der Tür gebunden ist, dass er sich um nichts anderes mehr kümmern kann. Und vielleicht ist meine Brust, die gerade immer wieder zumacht.
Florian Clauß
1:00:30–1:00:30
Hey.
Micz Flor
1:00:30–1:00:35
Deshalb kann ich nicht gut reden. Und deshalb hast du das Gefühl, du checks es nicht. Aber in Wahrheit habe ich es nie gesagt.
Florian Clauß
1:00:37–1:00:46
Okay. Insofern. Holla, hurra! Bis zum nächsten Mal bei eigentlich Podcast D.
1:00:47–1:00:51
Also ich wünsche dir, dass es dir bald besser geht.
Micz Flor
1:00:52–1:00:55
Danke. Beim Reden, Laufen und Atmen.
Florian Clauß
1:00:55–1:01:04
Genau. Und laufen und reden. Und atmen. Und atmen. Und genau. Also dann warten wir auf die zweite Episode.
1:01:06–1:01:15
Bei der zweite Folge der 18. Episode. Wie willst du sie eigentlich nennen? Künstliche Intelligenz.
Micz Flor
1:01:06–1:01:07
Zweite Folge der.
1:01:15–1:01:24
Also jetzt hatte ich einen Arbeitstitel, das Selbst Doppelpunkt Der heilige Gral der künstlichen Intelligenz. Forschung, Fragezeichen.
1:01:24–1:01:28
Okay, so kann ich diese Episode nicht. So wird dann wahrscheinlich die nächste heißen.
Florian Clauß
1:01:29–1:01:31
Ich bin gespannt. Vielen Dank mit.
Micz Flor
1:01:31–1:01:39
Nichts zu danken. Und schön, dass du mir so lange zugehört hast. Das ist schlimm. Ich weiß es nicht. Ich muss mir anhören, wenn ich wieder gesund.
Florian Clauß
1:01:36–1:01:41
Was ist schlimm? Ich heiße Sie also. Meinen es gut? Ja.

Mehr