EGL019 Über Sinn, Zufall, Inhalt und die Frage ob AI Neues in die Welt bringt: Künstliche Intelligenz Teil 2

"Als verkündet wurde, daß die Bibliothek alle Bücher umfasse, war der erste Eindruck ein überwältigendes Glücksgefühl." - Jorge Luis Borges (Die Bibliothek von Babel)

Wir nähern uns verspielt dem komplexen Thema Künstliche Intelligenz. Jorge Luis Borges' Kurzgeschichte "Die Bibliothek von Babel" aus dem Jahr 1941 dient als Wippe von Zufall und Sinn. Ted Chiangs "Catching crumbs from the table" aus dem Jahr 2000 als Seilbahn mit der die Menschheit von ihrer eigenen KI abgehängt wird. Natürlich reden wir kurz über Filme (Terminator, War Games, Dark Star, A.I.) und zufälligerweise über William Gibsons "Mona Lisa Overdrive". So bringen wir uns in die richtige Schwingung, um die Quantenvibrationen in unseren Mikrotubuli zu spüren, die uns -- so eine Hypothese des Nobelpreisträger Sir Roger Penrose -- mit dem Bewusstsein des Universums verbinden könnte.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:04–0:00:05
Warum wolltest du nicht unbedingt hierher?
Florian Clauß
0:00:07–0:00:15
Weil ich auf der einen Seite dachte Das ist ein ganz guter Ort zwischen uns.
0:00:16–0:00:22
Und auf der anderen Seite ist es so ein Teil, den wir noch nicht irgendwie begangen
0:00:22–0:00:26
haben, weil wir häufig unsere Strecken kreuzen.
0:00:27–0:00:35
Und auf der dritten wollte ich noch mal so ein bisschen anknüpfen an all die
0:00:35–0:00:41
Siedlungsgeschichten von Berlin und hier durch die Taut Siedlung gehen.
0:00:41–0:00:47
Hallo und herzlich willkommen bei eigentlich Podcast Folge 19.
0:00:48–0:00:56
Heute bringt uns Mitch eine Geschichte mit und wir knüpfen auch wieder an an die Episode davor.
0:00:56–0:01:04
Es wird um künstliche Intelligenz gehen und ich übergebe dir das Wort Mitch,
0:01:04–0:01:05
weil du willst sicher noch,
0:01:06–0:01:08
ein paar Worte verlieren zu der
0:01:08–0:01:13
vorherigen Folge und wie die jetzt in Beziehung zu dieser Folge stehen.
0:01:14–0:01:20
Vielleicht noch nachtragen, um zu sagen, dass wir jetzt eine 4teilige Serie
0:01:20–0:01:25
über künstliche Intelligenz angelegt haben.
0:01:25–0:01:29
Also heute der zweite Teil und es folgen dann zwei weitere Teile.
0:01:29–0:01:33
Aber erst mal viel Spaß mit dieser Episode.
Micz Flor
0:01:34–0:01:38
Es klingt so, als ob ich jetzt einen Vortrag halte, aber ich hoffe das Gegenteil.
0:01:38–0:01:42
Ich habe ehrlich gesagt dieses Mal ein bisschen das Seminar mäßig vorbereitet.
0:01:42–0:01:43
Mit Gruppenarbeit also.
Florian Clauß
0:01:43–0:01:45
Ja, Ich bin Gruppe A.
Micz Flor
0:01:44–0:01:49
Aber ja, ich sage, du bist dick. Wir sind dann die Gruppe. Ich ermutige dich.
0:01:51–0:01:56
Die letzte Folge, die hat es dann doch in den Podcast geschafft.
0:01:56–0:02:00
Zuerst dachte ich Oh, das geht gar nicht. Ich hatte mir eine Rippe gebrochen.
0:02:00–0:02:03
Flo hat mich an dem gleichen Abend noch ins Krankenhaus gefahren.
0:02:03–0:02:07
Das war mir gar nicht klar, dass sie gebrochen ist. Ich hatte bloß unglaubliche
0:02:07–0:02:14
Schmerzen, immer wieder mal und konnte mich auch nicht so frei bewegen und hatte Luftnot.
0:02:17–0:02:20
Das ist jetzt alles wieder besser. Ich fühle mich irgendwie sehr präsent.
0:02:21–0:02:23
Und habe dann aber entschieden, die Folge doch reinzunehmen.
0:02:23–0:02:27
Und dann wurde aus dieser einen künstlichen Intelligenz Folge jetzt irgendwie ein Vierteiler.
0:02:27–0:02:32
Als wir drüber gesprochen haben und das letzte war zuerst eben so ein Scheitern.
0:02:32–0:02:36
Und während ich mir das dann so angehört habe, habe ich gesagt Nee, irgendwie.
0:02:36–0:02:41
Gerade wenn ich auf diesen Komplex von Maschinenlernen, künstliche Intelligenz und.
0:02:44–0:02:50
Ja, wie soll ich sagen. Auch so Hybridmodelle zwischen Algorithmen basierten
0:02:50–0:02:52
und Deep Learning Modellen.
0:02:53–0:02:56
Wenn ich darüber nachdenke, dann ist dieses Thema Liebe immer was? Was?
0:02:58–0:03:04
Was mir so dazukommt. Also das ist dann, ich bin ja Psychologe, Psychotherapeut,
0:03:06–0:03:09
und vor dem Hintergrund habe ich halt oft dieses Gefühl, dass gerade die Entwicklung,
0:03:10–0:03:13
innerhalb der Biografie, gerade auch der frühen Kindheit, das ist irgendwie,
0:03:13–0:03:19
alles nicht wirklich ein Faktor ist, Wenn man über Lernen spricht,
0:03:19–0:03:24
da vielleicht dann sogar in der Weise, welche Folge du hast.
0:03:24–0:03:28
20 Ich habe dann 21 in der Folge 21 mehr. Da möchte ich über die Entwicklung
0:03:28–0:03:30
des Selbst als Simulation sprechen,
0:03:32–0:03:35
und deshalb ist aber die letzte Folge dann so drin geblieben,
0:03:35–0:03:40
weil ich fand es einfach sehr deutlich, wie sehr der Körper einen Einfluss hat
0:03:40–0:03:41
auf kognitive Prozesse.
0:03:42–0:03:47
Und man muss dazu wissen, dass ich In dem Moment, wo ich diese Folge vorgetragen
0:03:47–0:03:51
habe, war ich irgendwie der Meinung, dass das schon alles irgendwie so ganz gut ist.
Florian Clauß
0:03:53–0:03:57
Es war. Ich meine es. Ich. Es war auch gut. Ich habe mich. Ich habe es dann
0:03:57–0:03:59
auch nochmal angehört im Nachhinein.
0:03:59–0:04:02
Und ich finde, wir haben da schon so ein paar grundlegende Sachen,
0:04:02–0:04:05
die wir gibt neuronale Netze.
Micz Flor
0:04:06–0:04:10
Ich glaube, ein großes Thema ist diese Frage. Nach Motivation. Nach.
0:04:12–0:04:16
Nach Voraussagen, die man so macht, die man fällt. Hypothesenbildung usw..
0:04:17–0:04:24
Und ich war einfach so in meinem Körper und Schmerz eingesperrt,
0:04:24–0:04:26
dass ich mich zwar normal fühlte,
0:04:27–0:04:31
aber das war ein relatives Gefühl in diesem Raum, in dem ich da war.
0:04:32–0:04:34
In meinem Leib war ich irgendwie nicht.
0:04:35–0:04:39
Frei genug. Wirklich fand ich andere Leute mitzureißen und ich fand es auch
0:04:39–0:04:43
echt interessant, wie du auch immer so geknickt wurdest und am Ende dann sagt,
0:04:43–0:04:45
Ich fahr dich jetzt ins Krankenhaus.
0:04:45–0:04:48
Das ist ja nicht unbedingt das Ende, was man sich so wünscht.
0:04:49–0:04:52
Ja gut, dann hatten wir auf einmal diese Idee mit einem Vierteiler.
0:04:54–0:04:57
Dann hatte ich nochmal so ein bisschen auf einmal gemerkt, ich möchte mich vielleicht
0:04:57–0:05:00
sogar ein bisschen darstellen, Warum, warum ich das interessiert und beschäftigt.
0:05:00–0:05:04
Ich habe gerade schon gesagt, ich bin ein Psychologe und Psychotherapeut.
0:05:04–0:05:09
Ich habe also auch Psychologie studiert und inzwischen schon über 25 Jahre her.
0:05:09–0:05:16
Aber noch keine 30 Jahre habe ich auch als studentische Hilfskraft bei den Kognitionswissenschaften,
0:05:18–0:05:24
sogar in Lisp programmiert. Ich habe die Sachen aber nicht mehr gefunden.
Florian Clauß
0:05:21–0:05:25
Ach, echt? Das hatten wir schon. Das hast du mir vorgehalten.
Micz Flor
0:05:25–0:05:35
Und die Idee damals war, ein System zu simulieren oder so eine Art Proof of Concept herzustellen.
0:05:36–0:05:42
Stell dir vor, acht acht Pixel, damals beim C64 oder Sinclair ZX Spectrum war
0:05:42–0:05:45
das quasi die Größe, in der alle Buchstaben abgebildet wurden.
Florian Clauß
0:05:45–0:05:53
Ja, es war ein Spike. Ich glaube, wenn wir damals beim Ich war das ist das so spricht. Sorry.
Micz Flor
0:05:47–0:05:48
Es X Bright.
0:05:54–0:05:57
Und damals war meine Aufgabe und ich habe es auch sehr genossen,
0:05:57–0:06:01
habe das sogar im Sinclair ZX Spectrum noch mal in Basic nachgebaut.
0:06:01–0:06:05
Wenn du dir vorstellst, dass ein Raster von 8,8 und du bildest da Buchstaben
0:06:05–0:06:09
drauf ab, dann kannst du ja verschiedene Quadrate auf diesem Blatt.
0:06:10–0:06:16
Kannst du sagen, wenn da wirklich was erkennbar ist, dann muss das quasi entweder
0:06:16–0:06:18
Buchstabe A oder irgendwas sein.
Florian Clauß
0:06:19–0:06:25
Okay, es gibt quasi schon so ein Muster, was dann halt so ein Matching Score
0:06:25–0:06:31
hat. Und wenn das quasi über rechte, das ober rechte Quadrat dann gefüllt ist,
0:06:31–0:06:34
dann kann es kein n sein, sondern es ist vielleicht ein Haar.
Micz Flor
0:06:34–0:06:37
Ja, oder wenn es eben nicht gefüllt ist. Wenn man sich zum Beispiel einen Tee
0:06:37–0:06:38
vorstellt, dann ist oben die erste
0:06:38–0:06:42
Reihe komplett schwarz und in der Mitte irgendwie auch schwarz runter.
0:06:42–0:06:47
Das heißt, wenn ganz unten links weiß ist, 100 % weiß, dann kann es kaum ein
0:06:47–0:06:51
Tee sein. Wenn es schwarz ist, dann könnte es zum Beispiel ein Haar oder ein
0:06:51–0:06:52
A oder andere Sachen sein.
0:06:52–0:06:57
Und dann haben wir halt bestimmte Bereiche, haben halt bestimmte Gewichte.
0:06:57–0:07:01
Das heißt, du kannst dann, manche sind aussagekräftiger als andere und so kannst,
0:07:01–0:07:04
dir vorstellen, dass man da diese Gewichte verrechnen kann und dann kann man
0:07:04–0:07:08
so Wahrscheinlichkeiten aufstellen. Wahrscheinlich ist es zu 98 % ein Haar.
0:07:09–0:07:11
Vielleicht ist es aber auch ein A usw.
0:07:12–0:07:17
Und das ist so der frühe Anfang. Und es gab damals natürlich auch schon neuronale
0:07:17–0:07:21
Ideen und so, aber es gab viel wie das, was ich beschrieben habe,
0:07:21–0:07:25
der Versuch, dass man als erstes das löst, das Problem,
0:07:26–0:07:31
und dann versucht ein Programm zu bauen, was aufgrund dieser mentalen Leistung
0:07:31–0:07:35
des Lösens des Menschen dann bestimmte Wahrscheinlichkeiten runterrechnet.
0:07:36–0:07:39
In diesem Beispiel kann ich natürlich dann immer mal gucken,
0:07:40–0:07:45
meine Kamera, wie genau erkennt ihr die Buchstaben und kann das dann matchen
0:07:45–0:07:46
mit meinen Gewichten und kann das optimieren?
0:07:47–0:07:51
Ich kann da vielleicht sogar eine Schleife einbauen, dass die Software selber checkt, was besser ist.
0:07:51–0:07:57
Das wäre dann schon fast so eine Lernaufgabe. Das wär dann die Rückmeldung.
0:07:58–0:08:00
Also super Learning. Das habe ich letztes Mal erklärt.
0:08:02–0:08:07
Und es war aber immer noch damals oft so und es ist auch heute bei vielen Sachen,
0:08:07–0:08:09
so es gibt einen Algorithmus, es gibt eine Lösung.
0:08:10–0:08:15
Und heute bei diesen Deep Learning assoziativen neuronalen Netzen,
0:08:16–0:08:22
da ist es halt oft so, dass es von oben erst mal keinen Algorithmus drauf gibt, sondern,
0:08:23–0:08:30
das System wird bereitgestellt und fühlt sich dann war schön hier und fühlt
0:08:30–0:08:31
sich dann von ganz alleine mit,
0:08:32–0:08:35
Verbindung, Vernetzung und ist dann immer besser in der Lage,
0:08:35–0:08:39
auch bestimmte Dinge zu erkennen. Punkt. Da mach ich jetzt mal eine Klammer zu.
Florian Clauß
0:08:39–0:08:47
Vielleicht mal in kurzer Zeit. Wir sind ja, wir reden beim Laufen und im Laufen sozusagen.
Micz Flor
0:08:45–0:08:47
Im Laufen laufen.
Florian Clauß
0:08:48–0:08:53
Und wir gehen auch hier so bestimmte Trades durch Berlin ab.
0:08:53–0:08:57
Und wie schon gesagt, wir sind hier in der Bruno Taut Hufeisensiedlung.
0:08:57–0:09:05
Sieht man dann später bei unserem Track auf Komoot und wir finden auch ein paar
0:09:05–0:09:07
Bilder zu der Hufeisensiedlung, die wir gemacht haben.
0:09:08–0:09:14
Wollte ich immer so als kleinen Sidekick. Alles unter eigentlich Podcast D Kann
0:09:14–0:09:18
man sich die Tracks runterladen und nochmal anschauen auf kommod.
0:09:18–0:09:19
Aber hier ist es auch wirklich.
0:09:20–0:09:24
Ich finde es so ein bisschen, wenn man das ich will nicht zu lange auswalzen,
0:09:24–0:09:29
aber so ein bisschen so zur Waldsiedlung hat man so ein ähnliches heimeliges.
Micz Flor
0:09:28–0:09:34
Hey, da müsste die Peter Behrens die mit dem Bärenfell über dir Auf jeden Fall. Es ist.
Florian Clauß
0:09:29–0:09:30
Gefühl, aber unheimlich.
Micz Flor
0:09:35–0:09:39
Es ist sehr ähnlich ihr allerdings noch hat man so ein bisschen das Gefühl,
0:09:39–0:09:44
dass Architektinnen dazu neigen, manchmal den Blick von oben zu machen.
0:09:44–0:09:48
Also hier hatte ich mehr das Gefühl, das ist auf dem Reißbrett entstanden, bei Behrens Was?
0:09:48–0:09:51
Ja, total schön, diese leichten, mäandernden Fronten.
Florian Clauß
0:09:51–0:09:55
Ja, also ich meine, das gehört auch nicht zum Kern der Tauziehen.
0:09:55–0:09:58
Das ist der Kern ad hoc, genau nachher durch die Tauziehung.
0:09:58–0:10:01
Und kommen wir den Taut Autos vorbei. Was ich auch.
Micz Flor
0:10:00–0:10:03
Und das hat auch die taz und das war doch was, was ich da auch angesprochen
0:10:03–0:10:08
hatte, wo wir die diesen Wasser Boiler da geholt hatten den.
Florian Clauß
0:10:07–0:10:14
Genau. Genau das haben wir hier geholt. Wir gehen quasi die die ganzen Laufwege
0:10:14–0:10:18
unserer Haushaltsgeräte ab. Waschmaschine?
Micz Flor
0:10:18–0:10:23
Also eben waren wir noch in den 90er Jahren mit Lisp und dann waren wir in den
0:10:23–0:10:26
Nullerjahren mit der Tauschsiedlung.
0:10:27–0:10:34
Gut, ich habe ja schon gesagt, dass es so ein bisschen seminarmäßig vorbereitet habe und,
0:10:35–0:10:39
habe mir dann überlegt, ich weiß nicht, wie es dir geht, aber dieses Es ist,
0:10:39–0:10:43
total spannendes Thema, aber auch so ein mächtiges Thema, wo ich total schüchtern
0:10:43–0:10:47
werde und denke, hoffentlich hört das keiner und gleichzeitig möchte ich so viel dazu sagen.
Florian Clauß
0:10:46–0:10:52
Aber kannst du das Thema noch mal so quasi in einem Satz zusammenfassen?
Micz Flor
0:10:52–0:10:55
Ja, also ich weiß noch nicht, wie die Folge heißen wird, aber was ich machen
0:10:55–0:11:00
möchte, ich möchte eher so ein bisschen Gedankenspiele machen, um.
0:11:02–0:11:07
Hintenrum so ein bisschen Grenzen aufzuzeigen oder über seine Gedankenspiele
0:11:07–0:11:10
so interessante Fragen herauszufinden.
0:11:10–0:11:19
Ähm, wo mögliche Grenzen von einem sehr programmiertechnischen Denken her sein könnten.
0:11:20–0:11:23
Also natürlich ist eine ganz große Grenze, die werden wir überhaupt nicht besprechen.
0:11:23–0:11:27
Ist Energieeffizienz also diese immer größer werdenden?
0:11:27–0:11:32
Also Dali II ist ja ein Riesending und macht super geile Ergebnisse und lustig und viel Spaß.
0:11:32–0:11:37
Aber es ist halt so einfach energiemäßig, jenseits von allem,
0:11:37–0:11:39
was unser Gehirn so irgendwie kann.
0:11:39–0:11:43
Und irgendwie ist das Gehirn ja so ein so ein Richtwert, wo man scheinbar hin
0:11:43–0:11:46
will. Auch das ist ein eigenes Thema. Für meine nächste Frage,
0:11:46–0:11:49
also diese menschliche Blick auf alles, was wir da gerade erforschen.
Florian Clauß
0:11:48–0:11:54
Ich werde es auch aufgreifen. Hier wird viel über bio bioelektrische Systeme reden.
Micz Flor
0:11:50–0:11:52
Ja, okay, das ist auch cool.
0:11:54–0:11:58
Da bin ich gespannt. Also jetzt geht es mir dann eher so ein bisschen darum,
0:11:58–0:12:00
damit zu spielen, dass wir die jetzt mal angehen.
0:12:00–0:12:05
Und das erste, was ich jetzt als in meiner kleinen Seminarübung bereit habe,
0:12:05–0:12:12
würde ich es von Jorge Luis Borges eine Kurzgeschichte, die heißt Die Bibliothek von Babel.
Florian Clauß
0:12:12–0:12:20
Ah ja, die kenne ich ja. Er wird sie vorlesen, nicht?
Micz Flor
0:12:12–0:12:16
Ich weiß nicht, ob du die kennst von 1941.
0:12:18–0:12:22
Borges ist ein. Ich habe so ein. Nein, ich glaube, das ist nämlich gar nicht
0:12:22–0:12:24
so hilfreich, weil da kommen wir gleich auf.
Florian Clauß
0:12:23–0:12:25
Okay, Wir können jetzt über die Fragen Sie.
Micz Flor
0:12:26–0:12:29
Ja, und die Zusammenfassung ist bestimmt auch gut.
0:12:31–0:12:39
Also, der argentinische Schriftsteller und Bibliothekar veröffentlichte 1941 eine Kurzgeschichte.
0:12:39–0:12:45
Und diese Kurzgeschichte ist einfach mal so Es gibt in der ich,
0:12:45–0:12:49
wie ich sie jetzt quasi aufbaue, als Gedankenspiel.
0:12:49–0:12:52
Es gibt, sagen wir mal, ein Fest umschrieben, eine Größe von einem Buch,
0:12:52–0:12:57
sagen wir 100 Seiten mit 80 Zeilen und jede Zeile hat 80 Zeichen.
0:12:59–0:13:04
Und dann kann man ja rein theoretisch iterativ das durchlaufen lassen und könnte
0:13:04–0:13:13
quasi alle möglichen Buchstabenfolgen, die es gibt, in ein Buch dieses Ausmaßes hineintun.
0:13:13–0:13:15
Wir können es auch verkürzen, ich kann sagen nur zehn Seiten.
0:13:16–0:13:17
Das sind dann wahrscheinlich keine.
0:13:17–0:13:22
Natürlich keine Romane mehr, aber Kurzgeschichten oder Papers oder sonst was.
0:13:23–0:13:28
Und und diese Bibliothek, die ist genau so etwas.
0:13:28–0:13:31
Die hat dann noch so ein architektonisches Spiel drum herum,
0:13:31–0:13:34
wo auch viel reingedeutet wurde in den Text. Aber das brauchen wir jetzt nicht,
0:13:35–0:13:38
sondern wir beschäftigen uns einfach mit diesen Büchern.
0:13:38–0:13:42
Da gibt es unendlich viele Bücher. Nein, es gibt endliche Bücher,
0:13:42–0:13:46
weil wir wissen ja, wie viele Zeichen im Alphabet sind und wir wissen,
0:13:46–0:13:50
wie viel Zeichen so ein Buch kommen, wenn wir es denn mal ausrechnen.
0:13:50–0:13:52
Wahrscheinlich gefühlt unendlich viele.
0:13:53–0:13:57
Aber wenn man dieses Gedankenspiel und dann kannst du irgendwann einsteigen,
0:13:57–0:14:00
ich fang schon mal an, wenn man dann in dieser Geschichte so rein liest,
0:14:00–0:14:03
dann ist es halt so ganz interessant, weil die Bibliothekare,
0:14:04–0:14:08
die sind mit dieser Bücherei irgendwie konfrontiert und versuchen die zu sortieren.
Florian Clauß
0:14:09–0:14:12
Ich habe es jetzt noch nicht ganz verstanden. Was? Was? Es gibt eine.
Micz Flor
0:14:12–0:14:17
Diese Bibliothek ist voller Bücher. Und jetzt einfach Ich reduziere es mal ein
0:14:17–0:14:20
bisschen. Wir sagen mal, jedes Buch hat 20 Seiten.
0:14:22–0:14:25
80 Zeilen und 80 Zeichen pro Zeile.
Florian Clauß
0:14:25–0:14:28
Es ist völlig randomisiert. Oder ist das.
Micz Flor
0:14:28–0:14:33
Und in dieser Bücherei sind alle möglichen Zeichen kombiniert zu hören drin.
Florian Clauß
0:14:31–0:14:33
Okay. Okay. Verstehe. Jetzt.
Micz Flor
0:14:33–0:14:39
Das heißt, man weiß sofort unglaublich viel davon ist einfach Bullshit.
0:14:39–0:14:42
Macht erst mal auf den ersten Blick überhaupt gar keinen Sinn.
0:14:43–0:14:49
Und dann ist es so, dass in diesen Büchern dann ist man fast 1/3 dieses.
0:14:49–0:14:50
Diese Bibliothek ist verbrannt.
0:14:51–0:14:56
Das heißt 1/3 aller Bücher weg. Aber die Bibliothekare waren gar nicht so alarmiert
0:14:56–0:14:59
deswegen, weil es gab eigentlich ja immer noch fast alles.
0:14:59–0:15:04
Da gab es die gleichen Geschichten, gab es immer noch in 100000 facher Ausfertigung
0:15:04–0:15:07
mit mit Rechtschreibefehlern, aber man konnte sie immer noch lesen.
0:15:07–0:15:17
Es gibt ganz viele Texte, die sind, ähm, die sind falsch geschrieben und sind
0:15:17–0:15:20
einfach schlecht redigierte Versionen von besseren Texten.
0:15:20–0:15:25
Es gibt Kurzgeschichten, wo es ums Gleiche geht. Manche erzählen die Geschichte besser als andere.
0:15:25–0:15:31
Es gibt aber auch zum Beispiel genau ein Buch, in dem nur Leerzeichen drin sind. Da ist gar nichts drin.
0:15:32–0:15:36
Und genau ein Buch, das nur den Buchstaben A auf der ersten Seite genau in der Mitte hat.
0:15:37–0:15:41
Aber es gibt ziemlich viele Bücher, in denen nur der Buchstabe A drin ist.
0:15:43–0:15:46
Das heißt, du merkst, wie man so anfängt, da so hineinzu denken.
0:15:47–0:15:49
Dann kriegt man so ein ganz komisches Gefühl.
0:15:49–0:15:52
Erst mal auf einer formalen Ebene von Redundanz.
0:15:52–0:15:58
Das heißt, ganz viele Bücher braucht es nicht. Und da sind wir zum Beispiel bei diesem Zyptding.
0:15:58–0:16:01
Man kann dann, man kriegt immer wieder eine neue Rückmeldung.
0:16:02–0:16:04
Du stellst die gleiche Frage und du kriegst einen neuen Text,
0:16:04–0:16:06
das gleiche nochmal macht.
0:16:07–0:16:09
Und das ist irgendwie in dieser Bibliothek auch schon angelegt.
0:16:10–0:16:15
In dieser Kurzgeschichte wird dann auch kurz gesagt, dass es ganz viele wissenschaftliche
0:16:15–0:16:17
Abhandlungen darin auch gibt.
0:16:18–0:16:21
Und zwar gibt es welche, die richtig sind und welche, die falsch sind.
0:16:22–0:16:25
Es gibt ganz viele alte religiöse Texte, die man gar nicht kannte,
0:16:25–0:16:29
von dem man aber auch natürlich nicht weiß, ob die irgendwie echt sind.
0:16:29–0:16:31
Aber dann müssen sie da sein, sonst wären sie ja nicht in dieser Bibliothek drin.
0:16:32–0:16:38
Es gibt Widerlegungen von Dingen, die jahrhundertelang geglaubt wurden,
0:16:39–0:16:41
die dann wissenschaftlich widerlegt wurden.
0:16:42–0:16:46
Es gibt ganz viele Lügen, ganz viele Wahrheiten. Also dieses,
0:16:46–0:16:52
dieses, diese Bibliothek ist voller Dinge, vor allen Dingen.
0:16:52–0:16:56
Und das ist das Verrückte daran. Auch alle zukünftigen Erfindungen.
0:16:57–0:17:01
Die wir eigentlich jetzt noch gar nicht verstehen könnten, sind da schon drin.
0:17:01–0:17:05
Du kannst also auch in die Zukunft gucken, aber wir werden es vielleicht nicht verstehen.
Florian Clauß
0:17:06–0:17:11
Okay. Darf ich nochmal mal so kurz zusammenfassen, wie ich es verstanden habe?
0:17:11–0:17:16
Dadurch, dass jetzt alle möglichen Zeichen Kombinationen in dieser Bibliothek
0:17:16–0:17:21
abgebildet sind in Form von Büchern, gibt es halt genau diese ganzen potenziellen
0:17:21–0:17:25
Entdeckungen oder Geschichten oder was auch immer die du gerade beschrieben hast.
0:17:27–0:17:30
Ähm, anders gesagt ist.
0:17:31–0:17:34
Ähm. Dadurch, dass es so eine immens hohe Zahl ist.
0:17:34–0:17:40
Das heißt im Moment hohe Zahl an nicht sinnhaften, Sinnvollen.
0:17:41–0:17:45
Es ist ja. Also da bist du dann halt auch zu einer Kurzgeschichte mit Rechtschreibfehlern kommst.
0:17:46–0:17:50
Bist du ja schon in einem. In einer Potenz, die ja verschwindend ist.
0:17:50–0:17:54
Also es ist ja eher die Frage, wie sind die Gänge in dieser Bibliothek?
Micz Flor
0:17:55–0:17:59
Ja, das ist auch so ein Thema. Es gibt eben so einen architektonischen Teil,
0:18:00–0:18:05
der da auch beschrieben ist, wie sich quasi die Bibliothekare und die Bücher
0:18:05–0:18:06
in diesen Räumen sortieren.
Florian Clauß
0:18:06–0:18:12
Also, dass du wirklich zu sinnvollen Schriften kommst überhaupt.
0:18:12–0:18:18
Also erst wenn ich diesen ganzen sinnlosen Kram weg in irgendeiner irgendwelche
0:18:18–0:18:20
anderen Räume wegsortiert.
Micz Flor
0:18:19–0:18:24
Ja, und das ist genau die Urfrage der Bibliothekare. Das müssen die selber rausfinden.
0:18:24–0:18:29
Die versuchen irgendwie ein System zu bewegen, ihre Aufgabe sinnvoll zu sortieren.
Florian Clauß
0:18:27–0:18:29
Okay. Das ist gelöst.
Micz Flor
0:18:29–0:18:32
Das ist nicht gelöst, Da sind die irgendwie dran, weil die wissen auch bei manchen.
Florian Clauß
0:18:31–0:18:34
Okay, aber das ist jetzt nicht die, dass es jetzt darum geht,
0:18:34–0:18:38
nicht bei diesem Gedankenexperiment, sondern wir haben schon so ein Substrat
0:18:38–0:18:41
von sinnvollen Schriften, wie auch immer und haben.
Micz Flor
0:18:41–0:18:43
Ja Nein. Wir können das aber auch so ein bisschen ausweiten.
0:18:43–0:18:49
Ich glaube, das Interessante ist ja auch wenn wir jetzt diese diese Tür zu JLPT
0:18:49–0:18:56
zum Beispiel öffnen, ist ja diese, diese Gefahr von Texten, die plausibel erscheinen.
0:18:57–0:19:00
Also das ist ja dann, da öffnet sich ja dann alles Mögliche,
0:19:00–0:19:05
wie ich vorhin meinte, in dem in den Texten, wo Dinge bewiesen werden,
0:19:05–0:19:10
Dinge erlogen werden, glaubhaft Dinge dargestellt werden, dann erst später widerlegt werden,
0:19:12–0:19:14
dass das alles möglich ist.
0:19:15–0:19:19
Das ist ja in gewisser Weise das, was wir mit Katie Petit gerade so erleben.
0:19:19–0:19:21
Also dass man das Gefühl hat, dass so eine.
0:19:23–0:19:26
Das ist im Prinzip wie eine komische Riesenbibliothek. Und jedes Mal,
0:19:26–0:19:32
wenn ich da noch mal Redurido klicke, dann kriege ich ein neues Buch aus dieser Bibliothek.
Florian Clauß
0:19:28–0:19:28
Er.
0:19:32–0:19:36
Ja, das fand ich von dir auch sehr gut in der letzten Folge beschrieben,
0:19:36–0:19:39
obwohl da dieser Druck auf deinen Rippen war.
0:19:40–0:19:46
Aber diese, diese Vehemenz, die Kreativität dann mit diesem Ich aber weiß es
0:19:46–0:19:50
ganz genau und ich sagte dir das jetzt wie es ist. Ja, also das finde ich halt
0:19:50–0:19:54
irgendwie, ja, ich habe dann auch mal ein bisschen mit dem Rum gespielt oder mit der wie auch immer.
0:19:55–0:20:00
Und hatte dann auch immer das Gefühl, der weiß genau Bescheid.
Micz Flor
0:20:00–0:20:05
Ja, ja, das ist wirklich. Ich glaube, das war so der Neuntklässler,
0:20:05–0:20:08
der versucht, obwohl er nicht gelernt hat, irgendwie nicht durchzufallen und
0:20:08–0:20:12
denkt, wenn ich irgendwas sage, können mich nicht durchfallen lassen. So kommt einem das vor.
Florian Clauß
0:20:12–0:20:20
Und ich. Ja, hier ist es natürlich auch die Frage, ob das jetzt von den Entwicklern so als so als.
0:20:20–0:20:24
Ja, wir müssen halt gegen die Welt antreten und egal was kommt,
0:20:24–0:20:29
egal welcher Eiswind ihr ins Gesicht weht, muss immer diese Tonalität haben,
0:20:29–0:20:31
dass es halt extrem richtig ist, was du sagst.
Micz Flor
0:20:31–0:20:31
Wir.
Florian Clauß
0:20:32–0:20:34
Ich glaube das ist echt so, so ein BIOS von dem Ding.
Micz Flor
0:20:35–0:20:38
Ja, das ist. Das hatte ich. Ich weiß ehrlich gesagt gar nicht mehr genau,
0:20:38–0:20:42
aber diese. Diesen Bias mit den langen Antworten. Lange Sätze hatte ich den,
0:20:42–0:20:43
erzählt in der letzten Folge.
0:20:43–0:20:49
Denn es gibt von auf Openai. Auf der Webseite gibt es zu der Entwicklung des
0:20:49–0:20:56
Ganzen auch in einem Text diese Meldung, wo das irgendwie noch mal mitgeteilt wird,
0:20:56–0:21:00
dass die Antworten wurden halt geratet.
0:21:00–0:21:05
Das waren Leute, dass so menschliche Hirne, die gelesen und geredet haben und
0:21:05–0:21:08
das war eine Form von Feedback für die für diesen Lernprozess.
0:21:09–0:21:15
Und weil die also die Antworten, die die Sätze, die das gleiche sagten,
0:21:15–0:21:19
aber länger waren, wurden höher geratet als die, die kürzer waren.
0:21:19–0:21:20
Es gab so einen Bias für lange Sätze.
0:21:21–0:21:25
Das fand ich ganz interessant, dass man da dann, wie du schon sagst,
0:21:25–0:21:28
Bias einbauen kann, einfach in der Rückmeldung.
0:21:28–0:21:32
Und das heißt zum Beispiel in Psychologie heißt, dass der Rosenthal Effekt der,
0:21:32–0:21:36
das habe ich glaube ich auch schon mal erzählt, dass wenn du Forschern bestimmte
0:21:36–0:21:39
Mäuse gibst die halt im Labor dass er jetzt ja.
Florian Clauß
0:21:37–0:21:41
Ja, das ist sehr faszinierend. Wenn.
Micz Flor
0:21:40–0:21:45
Und das ist genau das gleiche wenn du äh ei trainierst also wenn du nur daran,
0:21:45–0:21:52
also du bist als als Forscher oder Beobachter, bist du irgendwie involviert
0:21:52–0:21:54
und hast einen Einfluss auf dieses ganze.
0:21:56–0:22:02
Ganze System. Was ich halt bei dem ZCPT interessant finde, wenn man es als Vergleich mit diesem.
0:22:02–0:22:07
Mit dieser Buches Geschichte ist halt das zukünftige und das finde ich so einen
0:22:07–0:22:10
ganz wichtigen, ganz wichtigen Punkt.
0:22:10–0:22:17
Und zwar wir haben jetzt ja das steht ja auch drin, ich glaube bis 2020 Texte
0:22:17–0:22:23
bis zu 21 wurden halt gelesen. So alles was danach war, das kann ja chipt nicht gut einordnen.
0:22:23–0:22:31
Das heißt, du wirst dort nicht zukünftige Erfindungen oder Worte oder es wird
0:22:31–0:22:34
halt nichts in der in der Bibliothek von Woche.
0:22:34–0:22:38
Da stehen ja auch Sachen drin, die erst in 2000 Jahren wahr sein werden.
0:22:39–0:22:43
Aber bei ZTP kommt so was irgendwie nicht raus.
0:22:43–0:22:48
Der Blick ist schon eher so nach hinten gewandt und ebenso leicht anbiedernd und bestimmt.
0:22:48–0:22:56
Das heißt, der versucht immer oder die versucht immer oder das Netz versucht immer dich zu bedienen.
0:22:57–0:23:00
Und das finde ich nochmal so einen ganz wichtigen Punkt.
0:23:02–0:23:06
Wenn wir in die Zukunft gucken. Also nicht nur muss man ja diese,
0:23:08–0:23:13
Deep Learning neuronalen Netze immer wieder updaten, immer wieder auch gucken,
0:23:13–0:23:16
ob irgendwelche Beweise drin sind oder nicht, was dann auch irgendwie immer
0:23:16–0:23:17
so eine Art Zeitgeist ist.
0:23:17–0:23:21
Das ist ja im Prinzip eine Diskussion, die man bei Wikipedia auch schon hatte.
0:23:24–0:23:27
Nicht nur, dass Leute bei Wikipedia halt ihre eigenen Biografien gefälscht haben
0:23:27–0:23:30
oder haben fälschen lassen oder auch schön dann lassen usw.
0:23:30–0:23:35
Aber generell welche Artikel kommen da drin vor, welche Themen werden da vorgeschlagen?
0:23:35–0:23:38
Und hier sind wir jetzt gerade in einem kleinen Zoo.
0:23:44–0:23:45
Rechtsschafe.
Florian Clauß
0:23:48–0:23:51
Ja, wir sind hier, Schloss Britz.
0:23:53–0:23:59
Es ist auch ein ganz netter Ausflugsort. Wenn du mal am Wochenende mit der Familie,
0:23:59–0:24:01
Kuchen essen gehen willst, dann hier.
Micz Flor
0:24:01–0:24:05
Weil du. Es ist wirklich wahr. Hier war ich noch nicht.
0:24:06–0:24:10
Sehr schön, was du hier schon mal konntest. Okay, gut.
Florian Clauß
0:24:08–0:24:09
Ja Kuchen ist.
Micz Flor
0:24:11–0:24:15
Genau da sind wir bei dem Motivationsthema. Was Ja auch noch in zukünftigen.
Florian Clauß
0:24:13–0:24:17
Denn genau das ist die Rewards, die Belohnung.
Micz Flor
0:24:15–0:24:16
Folgen wahrscheinlich. Ich mache mir jetzt nur noch.
Florian Clauß
0:24:17–0:24:23
Okay, also wir haben jetzt also dieser Connect zu der Bibliothek.
Micz Flor
0:24:23–0:24:28
Ja, und jetzt der Blick eben immer wieder nach hinten. So, also wir haben ja wir haben.
0:24:29–0:24:36
Ich hatte das heute Morgen eine kurze Fußnote dazu eben dieses leicht deprimierende Gefühl.
0:24:36–0:24:40
Ich saß in einem Cafe, was relativ aufgeräumt war und da lief dann halt so minimal
0:24:40–0:24:45
Electronica, Ambient Music, also Musik, wo man schon immer irgendwie so dachte,
0:24:45–0:24:48
naja, das könnte man wahrscheinlich auch einfach automatisieren,
0:24:48–0:24:49
das blubbert halt so raus im Hintergrund.
0:24:49–0:24:52
Keiner hört wirklich hin, tut einfach so gut.
0:24:53–0:24:57
Und jetzt ist es halt so weit. Es ist halt es gibt von.
0:24:58–0:25:02
Von Google hatte ich es geschickt, also sind es Soundbeispiele,
0:25:02–0:25:04
wo halt wirklich jetzt nicht mehr nur Noten generiert werden,
0:25:04–0:25:05
sondern wirklich Musiker.
0:25:06–0:25:09
Das heißt, wir gucken aber dann bei Sachen immer so nach hinten,
0:25:09–0:25:11
also wir gucken halt immer nach hinten.
0:25:11–0:25:16
Das Spannende an Musik ist ja oft, was kommt vorne raus, was ist die erste Fugazi
0:25:16–0:25:20
Platte oder meinetwegen auch die erste Bob Dylan Platte, meinetwegen auch das
0:25:20–0:25:22
erste Tschaikowsky Stück.
0:25:22–0:25:28
Das sind ja die die Momente, wo man denkt Wow, und wenn du jetzt aber all das
0:25:28–0:25:37
nimmst und das nächste in der Art oder als Melange aus zwei Dingen berechnest, dann.
0:25:38–0:25:43
Fehlt das Neue, was ich meine. Also der Blick ist immer nach hinten gerichtet.
0:25:43–0:25:47
In der Box, also mit allem, mit dem kompletten Möglichkeitsraum und Buchstaben,
0:25:47–0:25:50
ist in der Bibliothek von Borges auch die Zukunft abgebildet.
0:25:50–0:25:54
Es ist alles schon da, aber mit ZTE, BT, was ja gelernt hat,
0:25:55–0:25:57
dann ist immer nur die Vergangenheit da.
0:25:57–0:26:02
Das ist quasi das Neue. Was vorne rauskommt, ist dann eher so eine Form von Mash up.
0:26:03–0:26:08
So wie man das dann auch bei den Daily 2 Witzen in Social Media immer sieht,
0:26:08–0:26:14
wenn man dann hihihi, mach mal Big Bird von Sesamstraße auf dem Mars oder?
Florian Clauß
0:26:14–0:26:18
Aber ich glaube, da kommen wir auch auf so ein, wie soll man sagen,
0:26:18–0:26:24
so ein Designfehler bei diesem ganzen Melt Machine Learning Zeug,
0:26:25–0:26:30
drauf, nämlich dass es halt reaktiv ist.
0:26:30–0:26:33
Das heißt, du brauchst Material, um Ergebnisse zu bekommen.
0:26:34–0:26:37
Also es ist ja nicht aktiv, es wird aktiv in der Interaktion,
0:26:38–0:26:40
aber es ist im Prinzip dieses Ganze.
0:26:40–0:26:46
Dieser ganze Prozess des Lernens ist ja immer mit einem Material,
0:26:46–0:26:47
was quasi vorhanden ist.
0:26:47–0:26:50
Es wird, ja, es kann sich dann auch selber Material erzeugen,
0:26:50–0:26:54
aber es ist ja auch dann wieder nur basierend auf vergangenem Material.
0:26:54–0:26:59
Also ich glaube, das ist so, das ist so auch wieder bei was dann halt da drin ist.
Micz Flor
0:26:59–0:27:00
Ja.
0:27:03–0:27:08
Ja, da mach ich hier mal kurz einen Schnitt. Also, das ist jetzt der erste,
0:27:08–0:27:15
der erstes erste Gedankenexperiment mit möglichen Anknüpfungspunkten zu diesem
0:27:15–0:27:17
Thema Künstliche Intelligenz.
0:27:17–0:27:27
Da ging es jetzt eben um diese, um diese, diesen gefühlt unendlichen Plausibilitätsraum.
0:27:27–0:27:33
Und die Bibliothek von Borges macht alles und deswegen aber auch ganz viel Unverständliches,
0:27:34–0:27:37
macht zum Beispiel auch jeden Roman.
0:27:37–0:27:40
Allerdings sind dann immer die dritte, 4. 05. Seite in Spanisch.
0:27:40–0:27:43
Keiner weiß warum. Also das ist ja quasi alles da.
Florian Clauß
0:27:43–0:27:47
Der älteste Teil, der meint, meint blowing. Ja, das ist so ein bisschen wie.
Micz Flor
0:27:43–0:27:45
Also so denkt ja.
Florian Clauß
0:27:48–0:27:52
Mit diesem, was wir auch Kontext hatten, diese unendlichen Zahlen.
0:27:52–0:27:54
Irgendwann gibt es dann in der.
Micz Flor
0:27:54–0:27:57
Und den Kreis hinten in der Zahl PI. Ja.
Florian Clauß
0:27:55–0:28:00
Na und dann hast du Ja, du hast es. Du hast jedes Muster irgendwie da.
Micz Flor
0:27:59–0:28:00
Ja, genau.
Florian Clauß
0:28:01–0:28:05
Also insofern ist es irgendwie alles vorhanden, immanent.
0:28:06–0:28:09
Aber ich meine, auch das lässt sich ja eigentlich jetzt so berechnen.
0:28:09–0:28:14
Also man könnte man kann ja diese Bibliothek einen Computer so aufbauen, das ist ja kein Problem.
Micz Flor
0:28:14–0:28:18
Ja, ja, da muss man ja immer gucken, wie, wie viel, wie viel Energie und wie
0:28:18–0:28:21
viel Teilchen und das Universum. Dann wird ja mal gerechnet, wie viele mögliche.
Florian Clauß
0:28:21–0:28:25
Aber es gibt tatsächlich schon dieses Projekt, das Musical. Ich wollte es auch
0:28:25–0:28:28
raussuchen, dass du wirklich so einen.
0:28:28–0:28:35
Du hast alle Zeichen Kombination in einen Absatz drin und da steht halt alles
0:28:35–0:28:38
immer einmal drin. Also es gibt schon als Netzprojekt.
Micz Flor
0:28:35–0:28:36
Aber es gibt schon.
0:28:39–0:28:43
Ja, das verlinken wir. Dann musst du mir nochmal zuschieben.
Florian Clauß
0:28:43–0:28:46
Ich habe. Ich habe das für die Kontextfolge versucht zu finden,
0:28:46–0:28:47
aber ich habe es nie gefunden.
Micz Flor
0:28:46–0:28:51
Ach so, da haben wir es nicht gut. Also das ist jetzt dieses eine Ding bei ZP.
0:28:51–0:28:54
Das finde ich halt irgendwie interessant das dagegen zu halten,
0:28:54–0:28:57
weil man wird von zB bestimmt keine Rechtschreibfehler kriegen,
0:28:57–0:28:59
es sei denn man bittet drum.
0:28:59–0:29:03
Und man wird auch natürlich keinen absoluten Buchstabensalat bekommen,
0:29:03–0:29:06
es sei denn, man bittet drum. Vielleicht. Ich weiß nicht, ich habe noch nicht probiert.
0:29:06–0:29:10
Das heißt alles was man da bekommt, ist in sich plausibel. Was natürlich auch
0:29:10–0:29:15
daran liegt, weil das Chateau Petit diese relativ einfache Aufgabe hatte zu
0:29:15–0:29:20
sagen, versuche, das nächste Wort zu erraten, Das ist wohl scheinbar so,
0:29:21–0:29:24
reduziert auf das Wesentliche war war die Aufgabe.
0:29:24–0:29:27
Also es geht durch alle Texte und guck dir das an und dann versucht das nächste
0:29:27–0:29:30
Wort zu erraten und wieder das nächste wie das nächste. Merkt dir,
0:29:30–0:29:35
ob du es richtig hast oder nicht und nutze das als als Verstärker oder als Feedback.
0:29:36–0:29:37
So genau.
Florian Clauß
0:29:38–0:29:42
In einer Bibliothek ist ja quasi alles gleich gewertet gewichtet. Also da gibt es ja.
0:29:42–0:29:46
Also ich meine dieses ganze neuronale Netz usw. die sind ja,
0:29:46–0:29:52
die arbeiten ja nur mit Gewichten, mit gewichteten Funktionen und so entstehen ja diese Verknüpfung.
0:29:53–0:29:56
Also wenn in der Bibliothek bist, dann ist ja erst mal alles gleich.
0:29:56–0:30:00
Es wird ja dann quasi erst in der Benutzung und der Interaktion wird dann halt
0:30:00–0:30:04
irgendwas höher gewichtet, weil es erst mal rezipiert werden muss,
0:30:04–0:30:07
damit es halt irgendwie Sinn ergibt. Und die anderen bleiben nie halt liegen.
0:30:08–0:30:10
Also es ist ja dann eine andere Form.
Micz Flor
0:30:12–0:30:20
Das zweite ist eine Kurzgeschichte von Ted Chiang. Ich weiß nicht genau,
0:30:20–0:30:22
wie es ausspricht, dass es der,
0:30:24–0:30:30
Autor der Kurzgeschichte die Grundlage für das Drehbuch von Arrival war.
0:30:30–0:30:35
Ja, auch ein finde ich ganz toller Film. Da geht es ja auch immer.
0:30:35–0:30:39
Das ist eben auch so einer, der Gedankenexperimente baut.
0:30:39–0:30:42
Es gibt auch eine Kurzgeschichte, um die es aber nicht geht,
0:30:42–0:30:44
die ich aber auch ganz toll finde.
0:30:44–0:30:49
Die heißt The Lifecycle auf Software Objects oder so ähnlich.
0:30:50–0:30:55
Da geht es um in Anführungszeichen, künstliche Intelligenz, um so was im Prinzip wie.
0:30:57–0:31:02
Metaverse von Facebook, wo dann diese künstlichen Intelligenzen sind Haustiere
0:31:02–0:31:07
und so ein Zoologen arbeitet mit denen und es ist total spannend zu gucken,
0:31:07–0:31:12
wie sich dann in so einem Gedankenexperiment Kurzgeschichte das da durchzieht.
0:31:12–0:31:16
Die Geschichte, auf die ich jetzt allerdings verweisen möchte,
0:31:17–0:31:23
ist 2000 in Nature erschienen und die heißt Catching Crumbs from the Table.
0:31:24–0:31:31
Also Brotkrumen vom Tisch sammeln und es ist jetzt über 20 Jahre her.
0:31:31–0:31:34
Aber es geht irgendwie auch um genau das, was wir jetzt so ein bisschen spüren,
0:31:35–0:31:42
nämlich dass ja schon bestimmte Stimmen aus Bildungsapparaten,
0:31:42–0:31:43
auch Prüfungsthemen, so etwas sagen.
0:31:43–0:31:48
Wir können jetzt mit ZPBT gar nicht mehr wirklich so prüfen,
0:31:48–0:31:50
wie wir das immer gemacht haben, weil
0:31:50–0:31:54
es ist einfach nicht mehr leicht zu unterscheiden zwischen dem, was jetzt,
0:31:54–0:31:59
durch irgendeine KI erstellt wurde und dem, was jetzt ein,
0:32:01–0:32:05
Studierender oder auszubildender Auszubildende.
0:32:07–0:32:11
Erstellen kann. So. Und in diesem.
0:32:12–0:32:17
In diesem Artikel. Der geht halt damit los, dass er sagt das ist jetzt 25 Jahre
0:32:17–0:32:23
her, dass das letzte Mal ein Mensch was wirklich originäres erfunden hat und,
0:32:23–0:32:26
ein Paper publiziert hat. Weil.
0:32:28–0:32:34
Es gibt jetzt eben diese ganzen Systeme von Metakognition oder Metahuman,
0:32:34–0:32:35
das heißt, die glaube ich sogar.
0:32:36–0:32:41
Und die machen jetzt die ganze Forschung und machen diese ganzen Paper und die
0:32:41–0:32:44
haben die Menschheit schon längst abgehängt.
0:32:45–0:32:52
Also die, die Erstellung von neuem wissen, vom Paper und von diesen ganzen Wissenswissenschaften,
0:32:52–0:32:58
also Wissenschaft machen nicht mehr Menschen, die rennen dem verzweifelt hinterher.
0:32:58–0:33:04
Das hat durch die durch die Metakognition Systeme einfach so eine Beschleunigung
0:33:04–0:33:07
erlebt, dass die Menschen abgehängt sind.
0:33:07–0:33:12
Und das beste, was die noch machen können, ist, dass sie nicht mehr selber Wissen
0:33:12–0:33:17
erschaffen und eigene Papers herstellen, sondern innerhalb von publizierten
0:33:17–0:33:18
Papers, die durch den Meta,
0:33:19–0:33:23
entstanden sind, dann quasi hermeneutisch wie Bible Bible Studies,
0:33:23–0:33:26
Also gucken, in den Text gucken und versuchen, den Text zu interpretieren,
0:33:26–0:33:28
um irgendwie zu begreifen, worum es da geht.
0:33:28–0:33:32
Weil diese Metakognition natürlich inzwischen so weit schon weg ist von dem
0:33:32–0:33:37
Wortschatz, den die Menschen da hatten, dass man das interpretieren muss.
0:33:37–0:33:40
Also es gibt dann wiederum eine Form der Wissenschaft. Das finde ich auch lustig
0:33:40–0:33:47
in dem Text, dass er meint, ja, Menschen wollen scheinbar mit wissenschaftlichen
0:33:47–0:33:50
Gedanken arbeiten, das hat auch so was Spielerisches.
0:33:51–0:33:55
Das bestimmt auch was dran. Und deshalb, falls es hier gerade so ein bisschen
0:33:55–0:33:56
knistert es fängt an zu regnen.
0:33:58–0:34:03
Und deshalb werden die Menschen sich dann nicht mehr mit dem Erfinden neuen
0:34:03–0:34:06
Wissens, sondern mit der Deutung von erfundenem Wissen beschäftigen.
0:34:06–0:34:08
Fand ich irgendwie ganz spannend.
0:34:08–0:34:16
Und dann ist es nämlich auch noch so, dass die metakommunistischen Systeme einfach
0:34:16–0:34:21
um schneller arbeiten zu können, haben die diese Sprache auch eigentlich hinter sich gelassen?
0:34:22–0:34:25
Also die machen nur noch Sprache, quasi für die Menschen.
0:34:26–0:34:30
Das bleibt unklar, warum die die Menschen überhaupt noch bedienen damit.
0:34:30–0:34:33
Aber scheinbar ist es da irgendwie rein programmiert und die haben aber für
0:34:33–0:34:34
sich selbst inzwischen, dass,
0:34:36–0:34:43
die end entwickelte The Digital Neuraltransferance oder Initial Digital Transfer,
0:34:43–0:34:50
Transfer ist Übertragung aber eine andere Übertragung, also wo dann diese neuronalen Netze einfach.
0:34:51–0:34:54
Sozusagen Snapshot von sich miteinander austauschen können.
0:34:54–0:34:57
Und damit ist das ganze Wissen auch ausgetauscht, zack, zack,
0:34:57–0:35:00
zack, zack hin und her und es wird weiter gearbeitet.
0:35:01–0:35:05
Es gibt. In William Gibson gibt es, ich glaube in Mona Lisa Overdrive gibt es
0:35:05–0:35:10
so ein Bild von einem in Anführungszeichen. Cyberpunk, so hießen ja damals,
0:35:10–0:35:13
die halt dann im Cyberspace drin waren.
0:35:13–0:35:17
Es gibt so eine Form von Meltdown und da müssen die Personen dann künstlich
0:35:17–0:35:22
am Leben gehalten werden und dürfen aber auch nicht von dem Cyberspace entkoppelt werden.
0:35:22–0:35:26
Und dann werden in so ein eigenes System hineingelegt und da drin weiß dann
0:35:26–0:35:29
keiner was. Dieser Zombie quasi dann.
0:35:30–0:35:33
Oder die nennen die Vampire, weil die schlafen. Also du weißt gar nicht,
0:35:33–0:35:37
was sich da so entwickelt. Und so ähnlich ist das in dieser Kurzgeschichte auch beschrieben.
0:35:37–0:35:41
Also die dieses dieses entkoppelte Wissen schießt dann einfach,
0:35:42–0:35:47
macht einfach weiter so und das ist ja irgendwie glaube ich so eine ganz tiefe
0:35:47–0:35:49
Angst, die die Menschen auch haben.
0:35:50–0:35:53
Also dass man und da finde ich, ist es auch noch mal wichtig,
0:35:53–0:35:56
über die Definition der Begriffe und vielleicht so ein bisschen die Emotionen,
0:35:56–0:35:59
die damit verbunden sind, zu sprechen. Wenn du.
0:36:00–0:36:05
Früher von Maschinen lernen gesprochen hast. Ganz einfach.
0:36:06–0:36:08
Also es ging dann quasi darum, dass diese Maschinen etwas lernen,
0:36:09–0:36:14
dann, wenn man mal drüber nachdenkt, was da für eine Hierarchie entsteht oder für ein Bild entsteht.
0:36:14–0:36:19
Ist halt so, da ist die Maschine, die füttern wir, die ist wie so ein Hase.
0:36:20–0:36:24
Dem geben wir Sachen und der sitzt was lernen, der lernt so Tricks und dann
0:36:24–0:36:29
macht er Sachen schön, dann kann er auf einmal neue Sterne finden oder was auch immer.
0:36:29–0:36:37
Aber der wird quasi von uns als lehrende Einheit gefüttert, um dann was ganz
0:36:37–0:36:39
spezielles, Besonderes zu tun.
0:36:39–0:36:43
Wenn man nicht mehr von Lernen spricht, sondern von Intelligenz spricht,
0:36:43–0:36:47
dann geht es nicht mehr in Rezeption von Informationen und damit zu arbeiten
0:36:47–0:36:49
und die zu lernen, sondern es geht ja schon um Produktion.
0:36:49–0:36:56
Intelligenz erstellt ja Lösungen, findet Wege in Systemen und so und ich glaube,
0:36:56–0:36:58
das macht manchmal auch so ein bisschen bedrohlich.
0:36:58–0:37:03
Die Intelligenz, die produziert und das, das können wir nicht immer kontrollieren.
0:37:03–0:37:09
Vorher war es halt so, da war diese Maschine Schüler oder Schülerin und jetzt
0:37:09–0:37:15
auf einmal ist diese Maschine Professor oder Professorin. Und da tun wir uns
0:37:15–0:37:16
dann irgendwie ein bisschen schwer damit.
0:37:17–0:37:22
Das heißt, die Angst ist in dieser Geschichte auch schon so ein bisschen mit eingebaut.
0:37:22–0:37:29
Sobald wir diese Pandora Büchse öffnen, kriegen wir das nicht mehr eingefangen,
0:37:29–0:37:32
und dann machen die so ihr Ding und hängen total ab.
0:37:32–0:37:36
Das Beste, was dem Menschen bleibt, ist halt eben die Texte zu studieren und
0:37:36–0:37:43
versuchen herauszufinden, was diese neuen Entitäten da geschrieben haben.
Florian Clauß
0:37:43–0:37:49
Aber so ein bisschen halt noch wie so eine Softvariante von der Geschichte von Terminator.
0:37:49–0:37:52
Es gibt ja dann auch den Willen der Maschine. Wahrscheinlich ist das dann wirklich
0:37:52–0:37:54
so ein Asimov sches Gesetz.
0:37:55–0:37:59
Du darfst den Kommunikationsweg zu den Menschen nicht verlieren.
0:37:59–0:38:02
Das ist halt implementiert. Und dadurch müssen die sich halt wieder.
0:38:02–0:38:07
So, das finde ich jetzt ganz schön. Okay, wir müssen jetzt nochmal das irgendwie übersetzen.
0:38:07–0:38:09
Wahrscheinlich geht dann auch ganz viel verloren, weil dann,
0:38:09–0:38:15
wenn du innerhalb einer Sprache, eines Sprachsystem, eines Systems quasi bestimmte,
0:38:15–0:38:18
Beweise führst, dann ist ja dann die Übersetzung wieder so das,
0:38:18–0:38:21
was es dann nicht ganz abbilden kann.
0:38:22–0:38:26
Also kann man auch irgendwie schön weiterdenken. Aber klar, wenn die Maschinen
0:38:26–0:38:29
so den Menschen abhängen oder dann halt auch feindlich sind,
0:38:30–0:38:31
das dann halt die Menschen ausgeht.
0:38:31–0:38:34
Das ist ja so dieser Bad Dream of,
0:38:37–0:38:39
Artificial Life oder Intelligenz.
Micz Flor
0:38:39–0:38:43
Ja, und dass die Entente dann entscheidet, dass es nicht so viele Menschen geben
0:38:43–0:38:46
sollte, weil die Ressourcen sonst knapp werden, zum Beispiel und dann irgendwie,
0:38:47–0:38:48
Trinkwasser vergiftet oder so.
Florian Clauß
0:38:48–0:38:51
Ja oder wir, oder? Dann ist man ja auch wieder bei DAX da,
0:38:52–0:38:58
dass die selbst die Selbsterkennung als Bombe und in dem Moment okay,
0:38:59–0:39:03
ich bin und ich muss explodieren und damit ist alles ausgelöscht.
Micz Flor
0:39:02–0:39:04
Wir. Ein.
Florian Clauß
0:39:04–0:39:10
Das ist ja von Carpenter, der ich glaub in den 70er, da es da auch sehr schön science.
Micz Flor
0:39:10–0:39:12
Er ist, glaube ich, der. War das nicht der gleiche Drehbuchschreiber,
0:39:12–0:39:15
der dann lange nichts und dann Alien geschrieben hat?
0:39:16–0:39:19
Ich glaube wir sind ein Film Podcast. Muss man noch mal recherchieren?
Florian Clauß
0:39:16–0:39:21
Das kann ich nicht verstehen. Genau so also.
Micz Flor
0:39:20–0:39:24
Ja ja. Und das zweite wo du es jetzt sagst, was auch wieder Film Podcast ist,
0:39:24–0:39:25
ist natürlich Wargames.
0:39:25–0:39:30
Ich glaub von 83 oder 84 oder so wo. Ich glaube es war der E.T.
Florian Clauß
0:39:27–0:39:28
Er.
Micz Flor
0:39:30–0:39:35
Darsteller auch der da sich in Computer reingehackt hat und dann auf einmal,
0:39:35–0:39:39
ohne es zu wissen Zugang auf die ganzen atomaren Sprengköpfe hat.
0:39:39–0:39:44
Und dann durch diese Schleife, dass der Computer mit sich selbst spielt,
0:39:44–0:39:49
simuliert, erstmal merkt, dass der Krieg wie bei Tic Tac Toe einfach keine Gewinner hat.
0:39:49–0:39:54
Das ist immer unentschieden und es ist immer alles ausgelöscht und dann der
0:39:54–0:39:58
Computer selber dann mitteilt Also es ist aber langweilig, kann man nicht was anderes spielen?
0:40:01–0:40:04
Ja, und das andere ist aber eben in dieser Ted Cheng Geschichte ist natürlich
0:40:04–0:40:10
auch noch ein anderes Denken drin. Das ist dann eher so ein Denken. Ähm.
0:40:12–0:40:15
Ist. Also, das ist das, was du das letzte
0:40:15–0:40:19
Mal. Das ist mir ein bisschen zu metaphysisch. Also, da geht es darum,
0:40:21–0:40:25
es ist ein Riesenthema und vielleicht kommt es auch in deiner Folge von dem,
0:40:25–0:40:27
was ich weiß, immer rein. Aber diese Frage.
0:40:30–0:40:33
Wir reden immer von Bewusstsein. Und wir sind ja sehr menschenzentriert.
0:40:33–0:40:35
Also, wenn wir uns zum Beispiel vorstellen, dass Aliens auf uns kommen,
0:40:35–0:40:38
dann dürfen die aussehen wie sie wollen, uns egal. Aber wir müssen mit uns reden wollen.
0:40:39–0:40:45
Und es ist kaum vorstellbar, dass das Intelligenzniveau eines Laubfrosch irgendwie
0:40:45–0:40:49
jetzt mit einem UFO hier ankommt und Rubber Rubber mit anderen Fröschen spricht.
0:40:49–0:40:50
Aber wir können mit dem nicht reden. Irgendwie sind wir.
0:40:51–0:40:54
Wir sehen uns ja trotzdem. Quasi sowas als Zentrum also.
0:40:55–0:40:57
Und andersherum, wenn wir auf einen anderen Planeten fliegen,
0:40:57–0:40:59
dann wollen wir jetzt auch nicht nur Frösche sehen.
0:40:59–0:41:04
Das wäre natürlich. Also das wäre. Für Biologen wäre es natürlich unglaublich,
0:41:04–0:41:06
was da für Lebewesen sind.
0:41:06–0:41:11
Aber in Wahrheit ist es halt wieder so ein ganz, ganz kleine Nische,
0:41:12–0:41:14
mit der wir halt irgendwie zu tun haben wollen.
0:41:14–0:41:19
Also da geht es ja gar nicht darum, dass wir gibt uns irgendein Zeichen von
0:41:19–0:41:20
der Intelligenz da draußen,
0:41:21–0:41:26
und das ist zum Beispiel als Film Podcast, dem Ei von Steven Spielberg so schön
0:41:26–0:41:30
beschrieben als Bildsprache ganz zum Schluss, wo dann die Erde schon längst
0:41:30–0:41:34
irgendwie zugefroren oder sonst was ist, kommen dann so,
0:41:34–0:41:38
strichähnliche Wesen schon fast an, wo man nicht weiß, sind das Roboter oder
0:41:38–0:41:41
wirkliche Wesen, die in Anführungszeichen biologisch sind,
0:41:42–0:41:51
die dann das alles so völlig lautlos und schwerelos und auch im positiven Sinne
0:41:51–0:41:53
kraftlos mit Leichtigkeit zu zerlegen und abstellen? Ich weiß nicht,
0:41:53–0:41:54
ob du dich daran erinnern.
Florian Clauß
0:41:54–0:42:00
Ja, aber ist er nicht auch? Treffen da nicht auch auf diesen Roboter?
Micz Flor
0:42:00–0:42:01
Den Jungen. Genau.
Florian Clauß
0:42:00–0:42:03
Wir sind Kinder und können die dienen dann halt reaktivieren?
0:42:03–0:42:06
Oder haben wir Zugang zum Gedächtnis? Da war doch irgendwas.
Micz Flor
0:42:06–0:42:10
Ja, also wenn ich mich recht erinnere, ist es dann auch eher wieder ein psychologisches
0:42:10–0:42:11
psychotherapeutisches Thema.
0:42:11–0:42:17
Natürlich hier als Analogie so abgehandelt Dieses Kind, dieser Roboter,
0:42:20–0:42:24
der, wie du sagst, die Bombe muss explodieren, der wird ja gebaut,
0:42:24–0:42:29
damit Eltern, die keine Kinder haben können, ein Kind haben können.
0:42:30–0:42:34
Und diesem Kind muss man dann den Knopf hinten irgendwie drücken und ein bestimmtes
0:42:34–0:42:35
Gedicht aufsagen, der Satz erst sagen und dann.
Florian Clauß
0:42:35–0:42:36
Und dann sind die konditioniert.
Micz Flor
0:42:36–0:42:44
Naja, eher im printed geprägt. Also dann sind die geprägt auf unendliche Liebe.
Florian Clauß
0:42:39–0:42:40
Ja, er.
Micz Flor
0:42:44–0:42:48
Für diese Frau und das macht die auch. Und dann kriegen sie trotzdem noch ein Kind.
Florian Clauß
0:42:44–0:42:44
Er.
Micz Flor
0:42:49–0:42:53
Und dann ist es so, dass natürlich dieser Roboter dieses Kind überlebt alle,
0:42:54–0:42:59
und ähm und ist immer voller Liebe auf der Suche nach seiner Mutter,
0:42:59–0:43:01
die dann schon lange, lange tot ist.
0:43:01–0:43:06
Und er endet dann, indem er irgendwie von einem Karussell, irgendwie ganz tief
0:43:06–0:43:10
im Wasser, ich weiß nicht wieder hin kommt und sieht dann immer sozusagen ein.
Florian Clauß
0:43:07–0:43:09
Ja, genau das ist so!
Micz Flor
0:43:10–0:43:13
Abbild, fast ein Abbild seiner Mutter als,
0:43:14–0:43:17
Karussell, Holzfigur oder Galionsfigur.
0:43:17–0:43:21
Und da wird er dann gefunden.
0:43:22–0:43:28
Und mit diesem Roboter kommunizieren dann diese anderen Wesen und geben ihm dann, bevor er,
0:43:29–0:43:34
erlischt, Wie man immer sagen möchte, geben ihm glaube ich die Möglichkeit noch,
0:43:34–0:43:39
ein Bild zu generieren von also aus seinen Gedanken heraus generieren die dann
0:43:39–0:43:41
noch mal diese Frau, also seine Mutter.
Florian Clauß
0:43:40–0:43:45
N. Stimmt also. Er kriegt dann quasi seine seine Wunscherfüllung dann.
Micz Flor
0:43:45–0:43:52
Ja, ja, aber eben natürlich auch. Und das ist dann auch nur als mentales Bild.
0:43:52–0:43:56
Also er kriegt es ja nicht als reale Person, sondern er darf das noch mal erleben,
0:43:56–0:43:58
die machen ihm das sozusagen.
0:43:59–0:44:03
Ja, und bei bei Ted Chang ist halt, denke ich auch in dieser Geschichte,
0:44:03–0:44:08
wenn man auf diese Metapher nicht mit der völligen panpsychische Ebene geht,
0:44:08–0:44:11
wo Bewusstsein im Universum schon angelegt ist.
0:44:11–0:44:15
Und es ist nicht so, dass komplexe Systeme Bewusstsein herstellen,
0:44:15–0:44:20
sondern dass das Bewusstsein da ist und komplexe Systeme es einfacher haben, damit zu interagieren.
0:44:21–0:44:24
Dann ist es so, dass in dieser Vorstellung.
0:44:26–0:44:31
Die Komplexität der Systeme immer weiter geht und dann geht die durch die Menschheit durch.
0:44:32–0:44:35
Also wir werden abgehängt von diesen Systemen, die wir entwickelt haben.
0:44:35–0:44:39
Aber das ist einfach nur Teil des großen Plans. Die Dinosaurier sind weg.
0:44:39–0:44:42
Dann kommen die Säugetiere, die Säugetiere bringen uns. Dann sind wir weg.
0:44:42–0:44:45
Und dann gibt es noch diese Maschinen und das Bewusstsein geht immer weiter.
0:44:46–0:44:48
Und das ist halt dann irgendwie so einer, wie du meintest.
0:44:49–0:44:51
Was man deine Worte eine zu.
0:44:55–0:44:58
Was hast du gesagt? Du hattest ein Adjektiv gesagt. Nein, das ist mir jetzt,
0:44:58–0:45:01
zu esoterisch, hast du gesagt.
0:45:01–0:45:05
Esoterisch ist aber eine.
0:45:07–0:45:14
Legitime Wissenschaft. Roger Penrose vertritt seit Jahrzehnten die die Hypothese,
0:45:14–0:45:18
dass eben und da ist Ja, also da muss man.
0:45:18–0:45:22
Ich finde das total spannend das Thema weil es wird natürlich auf der Philosophie
0:45:22–0:45:28
auch schon immer hin und her gefragt mit dem Mind Body Problem oder so. Das war ja dann auch.
Florian Clauß
0:45:28–0:45:32
Es ist auch natürlich im Buddhismus, genau wie du es beschreibst.
0:45:32–0:45:39
Da ist halt immer Bewusstsein im Raum da und das ist insofern auch da eine Annahme.
0:45:39–0:45:42
Aber natürlich um esoterisch. Es klingt ein bisschen abwertend,
0:45:42–0:45:47
aber es ist vielleicht eher, um es wissenschaftlich quasi begehbar zu machen.
0:45:47–0:45:53
Muss jetzt irgendwie dann halt müssen halt diese diese Wiederholbarkeit usw.
0:45:53–0:45:57
Die muss ja dann halt auch für dieses Feld und dann wird es halt schwierig.
0:45:58–0:46:02
Dann sind das halt erst mal so Theorien muss man dann gucken,
0:46:02–0:46:06
ob man dafür quasi Experiment oder eine Belegbarkeit findet.
0:46:06–0:46:09
Das ist halt so glaube ich, die Herausforderung. Aber erst mal finde ich total,
0:46:09–0:46:11
interessant als Gedankenexperiment.
Micz Flor
0:46:12–0:46:15
Also da wäre halt für diese Idee. Von so einem Drang des Bewusstseins,
0:46:15–0:46:18
sich im Universum auszubreiten, sollte man annehmen, so etwas gäbe es.
0:46:19–0:46:22
In dieser Kurzgeschichte sind die Menschen haben so ihre Schuldigkeit getan
0:46:22–0:46:26
und geben diesen Staffelstab weiter. So wie die Bakterien an die Mehrzeller usw..
Florian Clauß
0:46:25–0:46:30
Genau. Aber was auch dahinter hängt, und das versuche ich dann auch.
0:46:30–0:46:34
Wenn ich demnächst über mein Thema rede ist.
0:46:34–0:46:39
Es gibt natürlich immer diese total menschzentrierte Einordnung von,
0:46:41–0:46:47
Bewusstseinsstufen und das ist auch eigentlich nicht haltbar,
0:46:47–0:46:50
sondern der Mensch sieht sich immer als Krone von irgendwas.
0:46:50–0:46:54
Aber er ist ja quasi auch nur ein Zustand von vielen in der Biologie,
0:46:55–0:46:57
die völlig gleichwertig sind.
0:46:57–0:47:03
Also ich glaube, das ist halt so auch die Herausforderung, da in der Wissenschaft
0:47:03–0:47:06
oder in der neuen, dass man das halt so ein bisschen zurücknimmt und guckt auch
0:47:06–0:47:09
auf Systeme, die halt Intelligenz dann anders,
0:47:11–0:47:14
so rausbringen oder produzieren können.
Micz Flor
0:47:14–0:47:18
Ja, da bin ich echt gespannt drauf. Deine Folge.
0:47:19–0:47:23
Was ich aber auch noch dazu sagen wollte ich finde, da kommen bei dieser,
0:47:23–0:47:27
bei dieser pan psychischen Seite kommen auch so zwei Dinge zusammen, die glaube ich.
0:47:31–0:47:36
Irgendwie zusammenzugehören scheinen. Aber ich weiß nicht, ob sie das wirklich
0:47:36–0:47:40
tun. Das eine ist eben das, ähm, das gibt ja gerade so einen.
0:47:40–0:47:45
So, nun haben wir auch schon so ein großes Interesse an Quantenmechanik,
0:47:45–0:47:48
Quantenphänomene und so was. Ein Tanglemünd.
0:47:48–0:47:51
Diese enzymatischen Sachen habe ich schon angesprochen. Photosynthese.
0:47:51–0:47:53
Man entdeckt jetzt immer mehr,
0:47:53–0:47:59
auch im biologischen System, dass da Quantenthemen drin sind und diese,
0:48:00–0:48:06
die Biologie hat unglaublich viele Energieprobleme, zum Beispiel solche banalen
0:48:06–0:48:11
Dinge wie wenn eine Mitose stattfindet, dann muss der Zellkern sich komplett
0:48:11–0:48:15
abrollen und diese abgerollte dann die Kette sich öffnen.
0:48:15–0:48:19
Das passiert nicht quasi, das passiert gleichzeitig in unterschiedlichsten Stellen,
0:48:19–0:48:22
dann werden die ja verdoppelt und dann trennt sich die ganze Zelle,
0:48:22–0:48:26
dann werden zwei Zellen draus und wenn man das einfach mal durchrechnet,
0:48:26–0:48:28
dann muss die Reibungshitze, die da entsteht,
0:48:28–0:48:32
in der Geschwindigkeit, in der es passiert, dann müsste eigentlich alles irgendwie verdampfen.
0:48:32–0:48:36
Das kriegt man gar nicht so durchgerechnet in einem Newtonschen Modell.
0:48:36–0:48:41
Das heißt, man, man geht jetzt inzwischen davon aus, dass ähnlich wie bei enzymatischen
0:48:41–0:48:48
Prozessen, das halt auf einer Quantenebene, diese diese Energierechnung funktionieren kann,
0:48:50–0:48:54
wo die Reibung in dem Sinne keine Rolle mehr spielt und auch.
Florian Clauß
0:48:54–0:48:56
Okay, das ist auch fett.
Micz Flor
0:48:57–0:49:01
Und aber auch andere, ganz andere Phänomene. Dieses Quantum an Tanglemünd,
0:49:01–0:49:03
wo man einfach wirklich merkt, ja,
0:49:03–0:49:09
es ist da, wir können sogar schon anfangen, damit zu experimentieren und Informationsübertragung,
0:49:09–0:49:13
über gewisse Distanzen komplett sicher zu machen, weil wir anhand von Teilchenbewegungen,
0:49:14–0:49:20
die keine nicht miteinander senden, in unserer Welt, aber die miteinander in ten Geld sind,
0:49:21–0:49:25
dass die verschiedene Spins herstellen können.
0:49:25–0:49:28
Wenn wir das in der einen Seite drehen, dann kann man in der anderen Seite lesen,
0:49:28–0:49:30
was wir da machen. Das gibt es ja.
Florian Clauß
0:49:29–0:49:34
Aber vielleicht ist es auch viel fließender. Also die Quantenwelt war immer
0:49:34–0:49:39
so eine abgegrenzte Welt, die ab einer Quantenlänge anfängt und hat nichts mit unserer Welt zu tun.
0:49:40–0:49:45
Aber vielleicht sind diese Phänomene viel, viel stärker implementiert,
0:49:45–0:49:51
irgendwo, ohne dass so viel gebräuchlicher als man das irgendwie so wahrnimmt.
0:49:51–0:49:56
Natürlich eine extremst kleine Wirkung, die das erzeugen kann.
Micz Flor
0:49:56–0:49:59
Ja, ja, aber das ist. Ja, genau.
Florian Clauß
0:49:57–0:49:58
Fotosynthese oder sowas.
0:49:58–0:50:02
Aber es sind so Kern Kernfunktionen, die das bedient.
0:50:03–0:50:09
Und auf der anderen Seite ist natürlich unsere Newtonschen Welt mit Körper, Schwerkraft und Kugel.
Micz Flor
0:50:09–0:50:12
Ja, genau. Mit Abrisskugeln. Also.
Florian Clauß
0:50:09–0:50:17
Es ist halt irgendwie alles viel greifbarer und viel erlebbarer,
0:50:17–0:50:23
weil unser ganze Sensorik ist halt darauf ausgerichtet, dass wir halt in dieser Welt quasi,
0:50:25–0:50:27
Veränderungszustände wahrnehmen.
Micz Flor
0:50:27–0:50:30
Ja, ich glaube, der große wichtige springende Punkt ist halt,
0:50:30–0:50:34
dass man immer mehr Quantenmechanik auch in biologischen Systemen entdeckt,
0:50:34–0:50:40
während man lange Zeit dachte, das geht nur bei null Temperaturen im absoluten Vakuum und so was. Also.
0:50:40–0:50:47
Aber nein, es geht eben auch mitten in mitten in der Biologie. Es ist.
Florian Clauß
0:50:46–0:50:52
Genau. Genau das war er. Das war damals alles unkontrollierbar. Aber.
Micz Flor
0:50:47–0:50:54
Es ist warm, es ist feucht, es ist alles unkontrollierbar. Aber genau da passiert Quanten. Das heißt.
Florian Clauß
0:50:53–0:50:57
Ich glaube, das ist genau das war ja für uns beide so dieser Punkt.
0:50:57–0:51:01
Diese Wahrnehmung beim Rotkehlchen, das Erdmagnetfeld.
0:51:01–0:51:05
Das ist halt ein Sinnesorgan, ist aber eher in der Photosynthese.
0:51:05–0:51:09
Ist ja auch genauso ohne Photosynthese ja nix auf der Welt quasi.
Micz Flor
0:51:09–0:51:13
Genau das Rotkehlchen. Ist er wirklich? Man kann das irgendwie beobachten.
0:51:13–0:51:15
Man kann es irgendwie mit mathematisch auch erfassen.
0:51:16–0:51:17
Man kann es aber noch nicht wirklich erklären.
Florian Clauß
0:51:17–0:51:18
Nee, genau das ist.
Micz Flor
0:51:18–0:51:23
Und das ist der eine Punkt. Und der andere Punkt ist eben diese Frage nach Bewusstsein.
0:51:23–0:51:27
Und wenn das zusammenkommt, dann ist halt so Penrose, der halt irgendwie sagt,
0:51:27–0:51:30
mit den Namen des anderen Wissenschaftlers habe ich jetzt vergessen,
0:51:30–0:51:37
der sagt, es gibt in den Zellen Mikrotubuli heißen die oder so gibt es solche säulenähnlichen,
0:51:37–0:51:40
Gefüge, von denen man nicht genau weiß, was die sollen.
0:51:40–0:51:45
Und jetzt ist halt die Hypothese und da gibt es wohl auch schon erste Befunde
0:51:45–0:51:52
dazu, dass da drin eben so Quanteneffekte irgendwie passieren.
0:51:52–0:51:57
Also ob das so ein Tor ist zu einem, zu einem, zu einer anderen Ebene,
0:51:57–0:51:59
zu einer neuen Ebene von Vernetzungen, die.
Florian Clauß
0:51:58–0:52:00
Wo jetzt? Ich hab den.
Micz Flor
0:52:00–0:52:03
Das ist diese immer noch dieser Punkt jetzt von dem Psychischen,
0:52:03–0:52:08
dass es Bewusstsein ist ein Zustand.
Florian Clauß
0:52:07–0:52:09
Also. Ach, krass. Also.
Micz Flor
0:52:09–0:52:11
Das ist quasi eine Gegebenheit.
0:52:11–0:52:15
Bewusstsein ist da und dieses Bewusstsein wird jetzt über Zellen.
Florian Clauß
0:52:12–0:52:13
Ja, und dieses.
Micz Flor
0:52:15–0:52:18
Über diese Tubular Sachen angedockt.
Florian Clauß
0:52:16–0:52:20
Äh, okay. Okay. Das ist. Das ist interessant. Ja, das ist.
0:52:20–0:52:24
Also. Also, das heißt, das ist so quasi das Tor zur Quantenwelt.
0:52:24–0:52:29
Und irgendwo ist es in der Raum Raum als Information vorhanden,
0:52:30–0:52:35
aber in einer in einer Welt kodiert, die wir nicht so erschließen können,
0:52:35–0:52:37
aber die physikalisch irgendwo messbar ist.
Micz Flor
0:52:38–0:52:42
Und damit lege ich dann eine kurze Spur in meine nächste Folge.
0:52:42–0:52:45
Wir haben es jetzt ein bisschen vorgeplanten Vierteiler, wo ich dann noch mal
0:52:45–0:52:49
über Freud und seine Theorie der Triebe im ausgehenden 19.
0:52:49–0:52:52
Jahrhundert reden möchte, wo er eigentlich was ähnliches versucht hat,
0:52:52–0:52:55
nämlich die geistige und die materielle Welt miteinander zu verknüpfen.
0:52:55–0:52:58
Und genau das sehe ich jetzt bei Penrose irgendwie auch.
0:52:58–0:53:03
Also dadurch, dass jetzt diese diese fast schon spirituelle Quantenwelt öffnet,
0:53:03–0:53:06
versucht der herzustellen eine,
0:53:06–0:53:10
physikalischen Raum innerhalb von physikalischen Gesetzen ist es möglich,
0:53:10–0:53:15
etwas nicht physikalisches zu beschreiben, was wir können, dann wir können dann
0:53:15–0:53:19
auf einmal das Spirituelle, das Geistige, die das Seelische, die Liebe.
0:53:19–0:53:23
Das können wir dann auf einmal über über so eine Öffnung, so einen Quantenraum hinein machen.
0:53:23–0:53:27
Also das ist so ein ganz interessanter, ganz interessanter Knick,
0:53:27–0:53:30
weil du hast das ganz oft gerade in der Bewusstseinsforschung,
0:53:30–0:53:35
dass in den experimentellen Settings, egal ob das jetzt bei Neurologen ist oder,
0:53:35–0:53:37
auch beim Machine Learning, also,
0:53:37–0:53:42
es gibt immer vorneweg eine Definition und diese Definition limitiert.
0:53:45–0:53:50
Den Raum. Dann ist zum Beispiel Bewusstsein nur etwas, was so und so und so und so ist.
0:53:50–0:53:53
Und diese ganzen Sachen, die können wir eben nicht messen, deshalb lassen wir sie weg.
0:53:54–0:53:57
Und wenn du das dann halt so einschränkst, dann baust du ein Experiment,
0:53:57–0:54:04
das darauf auch noch aufbaut und das sich dann auch beweisen lässt oder widerlegen lässt.
0:54:04–0:54:09
Aber diese ganzen Annahmen, die du vorneweg machen musst, um der Prozess selbst
0:54:09–0:54:13
operationalisieren, um einen kompletten Möglichkeitsraum herunterzubrechen,
0:54:13–0:54:15
zu operationalisieren auf,
0:54:16–0:54:20
Zusammenhänge, die du dann messen kannst, das ist halt.
0:54:21–0:54:27
Das ist halt der Kniff, der in der rein physikalischen, medizinischen,
0:54:27–0:54:28
biologischen Arbeit gemacht wird.
0:54:28–0:54:33
Und wenn man dann so was wie Bewusstsein oder Liebe auf einmal oder Glaube da.
Florian Clauß
0:54:33–0:54:35
Ja, Ja.
Micz Flor
0:54:34–0:54:39
Mit reinnehmen möchte, dann muss man eigentlich diesen physikalischen Raum verlassen.
0:54:40–0:54:45
Aber Penrose hat dann irgendwie gesagt, das ist Quanten und sofort denkt man,
0:54:45–0:54:46
ja, das kann sein, gute Idee.
Florian Clauß
0:54:46–0:54:50
Ja, ja, aber man muss jetzt doch noch mal so ein bisschen was zurücknehmen,
0:54:50–0:54:54
weil momentan wird ja auch ganz viel in diesem esoterischen Bereich,
0:54:54–0:54:59
wo dir alle möglichen Schummeleien angeboten wird, da wird ganz viel mit der Quanten.
Micz Flor
0:54:59–0:55:00
Der Quanten Healing.
Florian Clauß
0:55:00–0:55:05
Ja, es wird ganz viel. Also es ist so, das ist so, egal was das wird und es
0:55:05–0:55:09
ist auch total hoch akzeptiert da in der neuen Quanten, die werden ja auch,
0:55:09–0:55:14
also da wird es ja auch völlig quer, also völlig falsch benutzt und,
0:55:15–0:55:21
das ist dann wieder diese Nähe zur Esoterik, wo man gucken muss wie, wie eng ist das Feld,
0:55:22–0:55:25
man kann, kann halt ein bisschen gefährlich werden.
0:55:25–0:55:30
Da aber ist auf jeden Fall ja gut, dann kann es irgendwie so ein bisschen rein verlagern.
Micz Flor
0:55:30–0:55:33
Aber es ist auf alle Fälle absehbar. Also wenn ich jetzt mal wieder vor dem
0:55:33–0:55:38
Hintergrund der Neurologie jetzt als Psychologe da reinschaue und du guckst,
0:55:38–0:55:41
diese Entwicklung an, dann gab es ja lange, lange Zeit.
0:55:43–0:55:47
Überhaupt erst mal so eine ganz grobe Karte vom Gehirn, die man eher dann im
0:55:47–0:55:50
ersten Weltkrieg verfeinert hatte, weil dann Leute Teile weggeschossen bekamen.
0:55:50–0:55:53
Dann konnte man auf einmal sehen Ach guck mal, der kann nicht mehr sprechen,
0:55:53–0:55:54
der kann nicht mehr sehen.
0:55:54–0:55:58
Da wurde das Gehirn kartographiert, das heißt, das Gehirn wurde dann erst mal
0:55:58–0:56:03
so etabliert, auch als Zentrum von diesen ganzen kognitiven Prozessen und Areale
0:56:03–0:56:06
wurden identifiziert. Das war ein Riesenfortschritt.
0:56:06–0:56:10
Gruseliger Hintergrund, aber so war das nun mal so. Und dann kamen halt später
0:56:10–0:56:13
diese Mikroskopitechnik usw.
0:56:13–0:56:16
Rein. Dann hat man irgendwann eben diese Zellen im Gehirn, die Neuronen,
0:56:16–0:56:22
dann konnte man Elektrizität messen, dann hatte Elektrizität auf einmal eine ganz wichtige Rolle.
0:56:22–0:56:27
Dann hat man die Synapsen Chemie entdeckt. Die hatte dann auf einmal eine ganz wichtige Rolle.
0:56:27–0:56:31
Und wir sprechen auch heute natürlich bei künstlicher Intelligenz von Neuronen,
0:56:31–0:56:35
also auch da wieder eigentlich so eine menschlich menschliche Zentrum Idee,
0:56:36–0:56:40
weil wir denken so. Deshalb nennen wir es mal Neuron.
0:56:40–0:56:44
Und manchmal, wenn man sich dann Texte dazu durchliest, wo das verglichen wird,
0:56:44–0:56:48
Biologie und künstliche Intelligenz, ist es manchmal verwirrend.
0:56:48–0:56:51
Wo man manchmal ein bisschen den Faden verliert. Geht es um biologischen Neuronen
0:56:51–0:56:55
oder geht es hier um neuronale Netz Neuronen?
0:56:56–0:57:00
Aber auf jeden Fall ist es klar, dass.
0:57:02–0:57:06
Quantenmechanik einen Einfluss haben wird. Man wird es einfach finden, das ist ja klar.
0:57:07–0:57:10
Bei allem, was man gefunden hat, Elektrizität, Chemie, alles was man bis jetzt,
0:57:11–0:57:13
so erschlossen hat, ist auch wirksam in Zellen.
0:57:14–0:57:17
Quantenmechanik wird auch wirksam sein, gerade bei neuronalen Zellen, deren.
0:57:19–0:57:27
Die Leitung von Signalen passiert über Ionenkanäle, die Spannungsunterschiede
0:57:27–0:57:32
anhand an der Myelinschicht entlang transportieren, bis hin zu Synapsen und Synapsen wird dann.
0:57:32–0:57:36
Durch diese ankommenden elektrischen Impulse.
0:57:36–0:57:40
Werden dann Transmitter ausgeschüttet oder geblockt. Dann gibt es halt die Möglichkeit,
0:57:40–0:57:43
mit Psychopharmaka das zu beeinflussen,
0:57:43–0:57:48
die Aufnahme zu hemmen von solchen synaptischen Wirkstoffen und so.
0:57:48–0:57:52
Und das heißt, wir sind sowieso schon an dem Punkt, wo es jetzt nur noch eine
0:57:52–0:57:57
Frage der Zeit, bis man merkt, dass bestimmte Prozesse am besten erklärbar sind.
0:57:57–0:58:01
Wenn man Quantenmechanik auch damit rechnet, dass wird passieren,
0:58:01–0:58:03
wie in anderen Bereichen auch.
0:58:03–0:58:08
Aber das heißt in keiner Weise, dass es jetzt so ein Quantum brain and the magic
0:58:08–0:58:12
healing of Quantum power, das kann man wahrscheinlich gut verkaufen.
0:58:12–0:58:14
Vielleicht sollten wir die Folge so nennen.
Florian Clauß
0:58:15–0:58:16
Quantenheilung.
Micz Flor
0:58:16–0:58:20
Weil dann gibt es so ein bisschen eine Zielgruppe. Vorbei, aber viele Klicks, aber wenig.
Florian Clauß
0:58:21–0:58:26
Hin. Künstliche Quantenintelligenz. Quellen? Nein. Quanten.
Micz Flor
0:58:28–0:58:32
Dann mache ich hier nochmal einen Strich und wollte jetzt noch den dritten Block.
0:58:33–0:58:40
Da geht es jetzt um Musik, habe ich vorhin schon erwähnt, aber in einem etwas anderen Zusammenhang.
0:58:41–0:58:45
Was wir jetzt gerade sehen, was was eben auch so sehr überzeugend ist,
0:58:45–0:58:49
zum Beispiel bei Dali II, wo Bilder entstehen. Oder inzwischen wird auch Musik
0:58:49–0:58:51
hergestellt, nicht mehr nur Noten oder MIDI Signale.
0:58:52–0:58:56
Es entstehen Texte, also es wird quasi Content produziert in allen möglichen
0:58:56–0:58:59
Formaten. Demnächst werden wir auch die ersten Trickfilme sehen usw..
0:59:00–0:59:06
Es geht immer auch um eine Form von Narration, von Semantik,
0:59:06–0:59:08
weil sonst kriegen wir das ja alles auch. Da sind wir halt Menschen,
0:59:08–0:59:09
Rezipienten, Wir kriegen sie
0:59:09–0:59:12
irgendwie nicht gecheckt, wenn es nicht auch irgendwas erzählt, das Bild.
0:59:14–0:59:20
Ganz am Anfang haben wir über die Bibliothek gesprochen, in der alle möglichen
0:59:20–0:59:23
Texte sind. Also wir wollen ja schon Struktur und Ordnung haben,
0:59:23–0:59:24
damit wir es überhaupt sehen können.
0:59:25–0:59:34
Also Signal, Noise, Ratio und ein Bereich, in dem schon sehr früh viel Forschung passieren konnte,
0:59:35–0:59:40
weil es einerseits narrativ, auch emotional, menschlich und sowas ist,
0:59:40–0:59:46
aber andererseits eben nicht wie ein Ölgemälde oder ein eine Band, die spielt.
0:59:47–0:59:51
War halt in dem Musikbereich, weil es war da schon möglich mit Noten.
0:59:51–0:59:54
Du kannst dir vorstellen, es gibt ja auch midi viele Noten, die hintereinander
0:59:54–0:59:58
kommen, zum Beispiel das, was ZPBT gemacht hat.
0:59:58–1:00:03
Man könnte zum Beispiel sagen Rate was die nächste Note ist.
1:00:03–1:00:06
So wie man jetzt gesagt hat, Rate was das nächste Wort ist.
1:00:06–1:00:11
Und der Raum von Noten ist dann eher wie so eine kleine Bücherei in der Woche
1:00:11–1:00:15
ist Geschichte, also man hat weniger Noten, man hat unterschiedliche Längen
1:00:15–1:00:16
der Noten, aber weniger Noten.
1:00:16–1:00:22
Und man hat dann schon in den 80er Jahren Systeme gebaut, die anhand dieses
1:00:22–1:00:30
Rate die nächste Note zum Beispiel Bach ähnlich oder Mozart ähnliche Stücke geschrieben haben.
1:00:31–1:00:39
Und ein Musiker und Komponist, der da drin gearbeitet hat, ist David Cope.
1:00:40–1:00:44
Und ein Paper von ihm glaube ich noch aus den 80er Jahren. 84,
1:00:45–1:00:50
83 oder 84 waren die ersten Versuche, wie man.
1:00:54–1:00:58
Entweder über eine reine Kreativität, neuronale Netze Idee,
1:00:59–1:01:05
Melodien erstellen kann, indem man sagt Rate die nächste Note oder dass man
1:01:05–1:01:10
zuerst Modelle entwickelt, dass man versucht, erst mal so top down mäßig Modell
1:01:10–1:01:14
zu entwickeln, wo zum Beispiel drinsteht, wenn Bach.
1:01:16–1:01:21
Ein Lied für die Kirchenorgel geschrieben hat, dann dann macht er gerne Symbole
1:01:21–1:01:26
der Kreuze, wo zwei Linien Melodien aufsteigend sich so kreuzen,
1:01:26–1:01:28
weil das war dann seine Hommage an Gott.
1:01:28–1:01:31
Es geht um den Glauben und den sieht man dann sogar auf dem Notenblatt.
1:01:31–1:01:36
So was weiß man und das kann man ja dann als Modell herstellen und kann dann
1:01:36–1:01:42
einem System, das Noten schreibt, sagen okay, wenn geht, dann machen wir so
1:01:42–1:01:44
Kreuze rein, dann sieht es nach Bach aus.
1:01:44–1:01:54
Und damals hat sich schon gezeigt, dass die glaubwürdigsten und auch effizientesten, also von der,
1:01:54–1:02:00
von der Ausbeute her und auch von der Zeit her die Systeme, die waren,
1:02:00–1:02:07
die beides kombiniert haben, also quasi top down und aber auch einfach Deep
1:02:07–1:02:08
Learning ähnliche Strukturen.
1:02:09–1:02:14
Und ich finde, das ist so eine Sache, die man wahrscheinlich jetzt wieder als
1:02:14–1:02:16
Pendel bald finden wird,
1:02:17–1:02:23
weil jetzt gerade bei Dali II wurde ja das gleiche System einfach noch mal abgesgeeilt,
1:02:24–1:02:27
und hat dann auf einmal deutlich bessere Ergebnisse erzielt.
1:02:27–1:02:29
Und das ist ja auch total erstaunlich.
1:02:30–1:02:35
Aber man hat eben immer wieder auch diese Schreckensmeldungen von Autounfällen, weil halt.
1:02:36–1:02:42
Da gibt es dann so immer gibt es ja immer so Beispiele, zum Beispiel ein Einlernmodelle,
1:02:42–1:02:46
auch so Deep Learning für Autofahrassistenz,
1:02:46–1:02:49
wo das Auto auf der Brücke auf einmal große Probleme bekommen hat,
1:02:49–1:02:53
weil es bei allen Material bis jetzt immer nur Straßen hatte,
1:02:53–1:02:55
wo rechts und links noch Land war.
1:02:56–1:02:58
Eine Brücke war auf einmal was, keine Ahnung wo ich bin.
1:02:59–1:03:05
Ein System, was Material bekommen hat, um Leberflecken zu identifizieren,
1:03:05–1:03:07
die kann zurückgehen sind oder nicht.
1:03:07–1:03:12
Und dann hat sich rausgestellt, dass es bei den medizinischen Bildern mit Kanzer
1:03:12–1:03:16
gen Leberflecken oft so linealer daneben gab. Und das hat dann einfach quasi,
1:03:16–1:03:18
geschummelt wie so Neuntklässler.
1:03:18–1:03:23
Wenn Lineal drauf ist, dann ist es wahrscheinlich Krebs und hat das dann eben
1:03:23–1:03:26
hat das Diskriminierende, war halt eben das Lineal und.
Florian Clauß
1:03:26–1:03:30
Ist schon irgendwie. Aber das war dann auch schon Auszeichnungsmerkmal.
1:03:31–1:03:33
Und in dem Moment, wo das Lineal drauf ist, ist die Wahrscheinlichkeit,
1:03:33–1:03:35
dass es richtig sitzt, dann.
Micz Flor
1:03:35–1:03:40
Es ist schön. Es ist ein ganz schön weit gekommen. Dieser Leberfleck. Es gab auch einen.
1:03:41–1:03:45
Einen älteren Datensatz von Fotos von Gesichtern aus Medien.
1:03:46–1:03:49
Zurzeit, als George W. Bush noch Präsident war.
1:03:49–1:03:53
Und aus diesem Fundus stellte sich heraus, dass diese Gesichtserkennungssoftware,
1:03:53–1:03:57
sehr gut darin war, George W. Bush zu erkennen, aber nicht sehr gut war,
1:03:58–1:04:00
andere Gesichter zu diskriminieren.
1:04:00–1:04:04
Also das sind auch wieder so Bikes, die mit dem Material reinkommen und.
1:04:07–1:04:14
Ja, und das ist eben die Schwachstelle, wird oft gesagt, eben von diesen Deep
1:04:14–1:04:17
Learning Neuralnetzwerken, die.
1:04:18–1:04:23
Ähm, die keine Modelle mitbringen.
1:04:23–1:04:27
Und diese Modelle wiederum, das ist dann wieder, um ganz am Anfang der Folge zu sprechen.
1:04:27–1:04:31
Das sind dann eher die Systeme, wo man sich erst mal hinsetzt und sich quasi,
1:04:31–1:04:36
dann eine Lösung ausdenkt und die als Algorithmus vorgibt und dieser Algorithmus,
1:04:36–1:04:40
top down reguliert, in dem in dem Moment, wenn nur Network irgendwie läuft,
1:04:41–1:04:44
dann dem irgendwie assistiert Leitplanken aufzeigt.
1:04:44–1:04:49
Ich meine das jetzt sprichwörtlich nicht buchstäblich, aber zeigt so okay.
1:04:49–1:04:50
Nee, das kann nicht sein.
1:04:51–1:04:54
Komm noch mal zurück. Oder halt eben auch bestimmte Dinge abfragt.
1:04:54–1:04:57
Wenn du die 100 % sicher bist, gib mir die alle noch mal zurück.
1:04:57–1:05:00
Die will ich sehen. Oder wenn du 0 % sicher bist, gib mir die alle zurück, die will ich sehen.
1:05:01–1:05:07
Also dieses Zusammenspiel von Top down und neuronalen Netzen war wohl in dem Versuch.
1:05:09–1:05:13
Modelle zu beschuldigen, nicht Modelle, sondern Systeme zu erstellen,
1:05:13–1:05:17
die Musik komponieren, sodass es wie Mozart klingt oder so.
1:05:18–1:05:22
Die konnten anhand der Noten lernen und die besten Ergebnisse waren halt nicht
1:05:22–1:05:26
nur alle Noten zu lernen und abzubilden im neuronalen Netze,
1:05:26–1:05:28
sondern gleichzeitig auch von,
1:05:29–1:05:34
menschlicher Seite, eben Top down Modelle überstülpt zu bekommen. So.
1:05:35–1:05:40
Und jetzt gerade ist es irgendwie so, dass man mit der Rechenpower unglaublich
1:05:40–1:05:42
gut diese neuronalen Netze hochskalieren kann.
1:05:43–1:05:46
Wobei das jetzt ja auch schon wieder an Grenzen kommt. Dieses Moorsche Gesetz
1:05:46–1:05:49
von der immer kleiner werdenden Transistoren, das hat man jetzt,
1:05:50–1:05:52
da ist man so ziemlich am Ende.
1:05:52–1:05:56
Man fängt jetzt schon an die Transistoren zu stecken, so man dreidimensionalen Raum macht.
1:05:58–1:06:03
Man fängt sogar eben gerade auch für für künstliche Intelligenz an,
1:06:03–1:06:05
schon Hardware zu bauen, die sich an,
1:06:07–1:06:14
wie heißt es? Neuromorph heißt das glaube ich an biologischen Modellen orientiert,
1:06:15–1:06:20
so dass man so wie bei Grafikkarten, dass man quasi bestimmte Chips hat,
1:06:20–1:06:22
die bestimmte Dinge sehr gut können.
1:06:23–1:06:27
Und damit ist man dann auch wieder ein Rückschluss eben auf diese,
1:06:30–1:06:34
auf diese Kartographie des Geldes. Man ist dann wieder ein bisschen bei diesem Body Kognition Thema.
1:06:34–1:06:38
Es gibt dann auf einmal bestimmte Hardwareaspekte, die bestimmte Teilbereiche
1:06:38–1:06:43
der Kognition gut leisten können, die darin dann auch gerechnet werden.
1:06:43–1:06:46
Und man kann sich ja sehr gut vorstellen, so was wie Gesichtserkennung oder
1:06:46–1:06:50
Spracherkennung sind Sachen, die relativ universell und stabil über die Zeit
1:06:50–1:06:54
sind, dass die halt da sind wir bei unserer Konrad Zuse Folge,
1:06:54–1:06:58
dass die halt schon vorgegeben sind im System,
1:06:58–1:06:59
und dass man genauso wie auf einer
1:06:59–1:07:03
Grafikkarte dann alle möglichen Spracherkennung Sachen gleich da rüber.
Florian Clauß
1:07:03–1:07:07
Ja, er ist bereit. Ja, genau. Ich meine, das ist ja nichts anderes als dieser,
1:07:08–1:07:11
Chip, den auch Apple in einen zweiten Chip für sie einbaut.
1:07:11–1:07:16
Der hat genau diese diese Sachen schon in die Platine gelötet,
1:07:16–1:07:23
wo dann halt solche Sachen dann schon abgekapselt, dann als Bibliotheken vorhanden sind. Ja.
Micz Flor
1:07:23–1:07:26
Ein Fingerabdruckscanner zum Beispiel. Das kannst du ja inzwischen wahrscheinlich
1:07:26–1:07:27
in einer Hardware so lösen.
1:07:28–1:07:31
Und das ist halt so diese Sache. Das fand ich nochmal ganz interessant,
1:07:31–1:07:36
dass in den 80er Jahren über Musik, was ja auch eine emotionale Sache ist,
1:07:36–1:07:40
die künstlichen Mozartstücke haben die Menschen auch berührt und bewegt.
1:07:42–1:07:47
Dass da schon gezeigt wurde, dass beides notwendig ist.
1:07:48–1:07:51
Neuronale Netze, die einfach erst mal vorurteilsfrei lernen,
1:07:52–1:07:59
aber auch Modelle über die Welt, die das beeinflussen und damit in Austausch treten können.
1:08:00–1:08:05
Und dann eben als dritte Komponente die embedded Kognition oder bestimmte Systeme,
1:08:05–1:08:07
die spezialisiert sind auf bestimmte.
Florian Clauß
1:08:09–1:08:16
Wütend darüber. Wie soll ich wir jetzt hier rüberkommen? Ich will. Nein, du bist völlig.
Micz Flor
1:08:13–1:08:16
Ich bin jetzt. Wir machen jetzt hier Schluss. Ich meine Sie auf.
1:08:17–1:08:18
Ich würde jetzt hier mal.
1:08:21–1:08:22
Es ist jetzt so laut geworden.
Florian Clauß
1:08:23–1:08:28
Na ja, also wir können jetzt noch weitergehen. Und wir können jetzt wirklich wieder umdrehen.
1:08:29–1:08:34
Okay, sorry, das war jetzt kein guter Schluss.
Micz Flor
1:08:34–1:08:34
Ja.
1:08:37–1:08:41
Oh. Okay, dann give me to my. Aber gehen wir wieder zurück an die Straße.
1:08:41–1:08:42
Denn da war es ja dann so laut.
Florian Clauß
1:08:43–1:08:46
Wir beginnen hier hinter den Kasten.

Wir beginnen unsere Tour an der Hufeisensiedlung im Süden Berlins, die mir von einem der vielen verfügbaren AI-Chatbots beschreibt wird als „ein interessantes Beispiel für künstliche Intelligenz, da sie von Robotern gebaut wurde, die Lösungen für einige der komplexesten Probleme der Welt erarbeiten.“ Live and learn…

Als ersten Denkanstoß, um über KI zu reden, dient uns Jorge Luis Borges‘ Kurzgeschichte „Die Bibliothek von Babel“ aus dem Jahr 1941. In dieser Bibliothek finden sich gefühlt unendlich viele Bücher. In Wahrheit vermutlich eine endliche Anzahl, nämlich alle Bücher, die alle möglichen Buchstabenkombinationen beinhalten. So gibt es genau ein Buch, in dem nur weiße Seiten sind. Und ein Buch, in dem nur „eigentlicheigentlicheigentlich“ steht, ohne Punkt und Komma. Und alle anderen — möglichen — Bücher. Sich ähnelnde Gedichte, mal lustig, mal traurig und die sich mal besser, mal schlechter reimen. Alle zukünftigen Erfindungen, alle Wahrheiten und Lügen, Beweise und Widerlegungen. Wir fragen uns: wie verhält sich dieser Text konzeptionell und emotional zu den AI-Chatbots, über die gerade alle Lachen oder ehrfürchtig in die Knie gehen? Bringt AI etwas Neues in die Welt oder kann es nur Variationen, Collagen, Mutationen des Gleichen?

In Borges‘ Kurzgeschichte heißt es gegen Ende:

„Vielleicht spielen mir Alter und Ängstlichkeit einen Streich: aber ich hege die Vermutung, daß die Menschenart — die einzige, die es gibt — im Aussterben begriffen ist, und daß die Bibliothek fortdauern wird: erleuchtet, einsam, unendlich, vollkommen, unbeweglich, gewappnet mit kostbaren Bänden, überflüssig, unverweslich, geheim.“

Und dies bildet eine Brücke in unsere zweite Kurzgeschichte, Ted Chiangs „Catching crumbs from the table“ aus dem Jahr 2000, in der System künstlicher Intelligenz die Menschheit abgehängt haben. Borges‘ Bibliothek kommt sozusagen ins Leben, besteht, gedeiht, forscht, entwickelt. Und entwickelt vor allem eine eigene Sprache, um Wissen noch schneller vernetzen und verteilen zu können. Die Menschen, deren Forschungsdrang Befriedigung sucht, vertiefen sich in Textinterpretationen der Publikationen, die die metakognitiven Systeme den Menschen zu liebe veröffentlichen, auch wenn diese nichts mehr verstehen können, was dort geschrieben steht. Damit wird das Wissen wieder religiös und die Wissenschaft der Wissenschaft der Menschen ist die Hermeneutik.

In diesem zweiten Teil unserer vierteiligen Mini-Serie über Künstliche Intelligenz und Systeme berühren wir auch wieder die (küchenpsychologische) Quantenmechanik, sprechen über die Überlegung des Nobelpreisträgers Sir Roger Penrose, Bewusstsein könne unter allen Dingen liegen und uns alle verbinden. Eine beruhigende und spirituelle Idee für die Seele. Mehr nicht? Wir sprechen auch über die Vorläufer des ChatGPT Lernens, das in den 1980er Jahren im Feld der Musik belegte: die Mischung aus Top Down und Deep Learning macht’s.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*