0:30:12–0:30:20
Das zweite ist eine Kurzgeschichte von Ted Chiang. Ich weiß nicht genau,
0:30:20–0:30:22
wie es ausspricht, dass es der,
0:30:24–0:30:30
Autor der Kurzgeschichte die Grundlage für das Drehbuch von Arrival war.
0:30:30–0:30:35
Ja, auch ein finde ich ganz toller Film. Da geht es ja auch immer.
0:30:35–0:30:39
Das ist eben auch so einer, der Gedankenexperimente baut.
0:30:39–0:30:42
Es gibt auch eine Kurzgeschichte, um die es aber nicht geht,
0:30:42–0:30:44
die ich aber auch ganz toll finde.
0:30:44–0:30:49
Die heißt The Lifecycle auf Software Objects oder so ähnlich.
0:30:50–0:30:55
Da geht es um in Anführungszeichen, künstliche Intelligenz, um so was im Prinzip wie.
0:30:57–0:31:02
Metaverse von Facebook, wo dann diese künstlichen Intelligenzen sind Haustiere
0:31:02–0:31:07
und so ein Zoologen arbeitet mit denen und es ist total spannend zu gucken,
0:31:07–0:31:12
wie sich dann in so einem Gedankenexperiment Kurzgeschichte das da durchzieht.
0:31:12–0:31:16
Die Geschichte, auf die ich jetzt allerdings verweisen möchte,
0:31:17–0:31:23
ist 2000 in Nature erschienen und die heißt Catching Crumbs from the Table.
0:31:24–0:31:31
Also Brotkrumen vom Tisch sammeln und es ist jetzt über 20 Jahre her.
0:31:31–0:31:34
Aber es geht irgendwie auch um genau das, was wir jetzt so ein bisschen spüren,
0:31:35–0:31:42
nämlich dass ja schon bestimmte Stimmen aus Bildungsapparaten,
0:31:42–0:31:43
auch Prüfungsthemen, so etwas sagen.
0:31:43–0:31:48
Wir können jetzt mit ZPBT gar nicht mehr wirklich so prüfen,
0:31:48–0:31:50
wie wir das immer gemacht haben, weil
0:31:50–0:31:54
es ist einfach nicht mehr leicht zu unterscheiden zwischen dem, was jetzt,
0:31:54–0:31:59
durch irgendeine KI erstellt wurde und dem, was jetzt ein,
0:32:01–0:32:05
Studierender oder auszubildender Auszubildende.
0:32:07–0:32:11
Erstellen kann. So. Und in diesem.
0:32:12–0:32:17
In diesem Artikel. Der geht halt damit los, dass er sagt das ist jetzt 25 Jahre
0:32:17–0:32:23
her, dass das letzte Mal ein Mensch was wirklich originäres erfunden hat und,
0:32:23–0:32:26
ein Paper publiziert hat. Weil.
0:32:28–0:32:34
Es gibt jetzt eben diese ganzen Systeme von Metakognition oder Metahuman,
0:32:34–0:32:35
das heißt, die glaube ich sogar.
0:32:36–0:32:41
Und die machen jetzt die ganze Forschung und machen diese ganzen Paper und die
0:32:41–0:32:44
haben die Menschheit schon längst abgehängt.
0:32:45–0:32:52
Also die, die Erstellung von neuem wissen, vom Paper und von diesen ganzen Wissenswissenschaften,
0:32:52–0:32:58
also Wissenschaft machen nicht mehr Menschen, die rennen dem verzweifelt hinterher.
0:32:58–0:33:04
Das hat durch die durch die Metakognition Systeme einfach so eine Beschleunigung
0:33:04–0:33:07
erlebt, dass die Menschen abgehängt sind.
0:33:07–0:33:12
Und das beste, was die noch machen können, ist, dass sie nicht mehr selber Wissen
0:33:12–0:33:17
erschaffen und eigene Papers herstellen, sondern innerhalb von publizierten
0:33:17–0:33:18
Papers, die durch den Meta,
0:33:19–0:33:23
entstanden sind, dann quasi hermeneutisch wie Bible Bible Studies,
0:33:23–0:33:26
Also gucken, in den Text gucken und versuchen, den Text zu interpretieren,
0:33:26–0:33:28
um irgendwie zu begreifen, worum es da geht.
0:33:28–0:33:32
Weil diese Metakognition natürlich inzwischen so weit schon weg ist von dem
0:33:32–0:33:37
Wortschatz, den die Menschen da hatten, dass man das interpretieren muss.
0:33:37–0:33:40
Also es gibt dann wiederum eine Form der Wissenschaft. Das finde ich auch lustig
0:33:40–0:33:47
in dem Text, dass er meint, ja, Menschen wollen scheinbar mit wissenschaftlichen
0:33:47–0:33:50
Gedanken arbeiten, das hat auch so was Spielerisches.
0:33:51–0:33:55
Das bestimmt auch was dran. Und deshalb, falls es hier gerade so ein bisschen
0:33:55–0:33:56
knistert es fängt an zu regnen.
0:33:58–0:34:03
Und deshalb werden die Menschen sich dann nicht mehr mit dem Erfinden neuen
0:34:03–0:34:06
Wissens, sondern mit der Deutung von erfundenem Wissen beschäftigen.
0:34:06–0:34:08
Fand ich irgendwie ganz spannend.
0:34:08–0:34:16
Und dann ist es nämlich auch noch so, dass die metakommunistischen Systeme einfach
0:34:16–0:34:21
um schneller arbeiten zu können, haben die diese Sprache auch eigentlich hinter sich gelassen?
0:34:22–0:34:25
Also die machen nur noch Sprache, quasi für die Menschen.
0:34:26–0:34:30
Das bleibt unklar, warum die die Menschen überhaupt noch bedienen damit.
0:34:30–0:34:33
Aber scheinbar ist es da irgendwie rein programmiert und die haben aber für
0:34:33–0:34:34
sich selbst inzwischen, dass,
0:34:36–0:34:43
die end entwickelte The Digital Neuraltransferance oder Initial Digital Transfer,
0:34:43–0:34:50
Transfer ist Übertragung aber eine andere Übertragung, also wo dann diese neuronalen Netze einfach.
0:34:51–0:34:54
Sozusagen Snapshot von sich miteinander austauschen können.
0:34:54–0:34:57
Und damit ist das ganze Wissen auch ausgetauscht, zack, zack,
0:34:57–0:35:00
zack, zack hin und her und es wird weiter gearbeitet.
0:35:01–0:35:05
Es gibt. In William Gibson gibt es, ich glaube in Mona Lisa Overdrive gibt es
0:35:05–0:35:10
so ein Bild von einem in Anführungszeichen. Cyberpunk, so hießen ja damals,
0:35:10–0:35:13
die halt dann im Cyberspace drin waren.
0:35:13–0:35:17
Es gibt so eine Form von Meltdown und da müssen die Personen dann künstlich
0:35:17–0:35:22
am Leben gehalten werden und dürfen aber auch nicht von dem Cyberspace entkoppelt werden.
0:35:22–0:35:26
Und dann werden in so ein eigenes System hineingelegt und da drin weiß dann
0:35:26–0:35:29
keiner was. Dieser Zombie quasi dann.
0:35:30–0:35:33
Oder die nennen die Vampire, weil die schlafen. Also du weißt gar nicht,
0:35:33–0:35:37
was sich da so entwickelt. Und so ähnlich ist das in dieser Kurzgeschichte auch beschrieben.
0:35:37–0:35:41
Also die dieses dieses entkoppelte Wissen schießt dann einfach,
0:35:42–0:35:47
macht einfach weiter so und das ist ja irgendwie glaube ich so eine ganz tiefe
0:35:47–0:35:49
Angst, die die Menschen auch haben.
0:35:50–0:35:53
Also dass man und da finde ich, ist es auch noch mal wichtig,
0:35:53–0:35:56
über die Definition der Begriffe und vielleicht so ein bisschen die Emotionen,
0:35:56–0:35:59
die damit verbunden sind, zu sprechen. Wenn du.
0:36:00–0:36:05
Früher von Maschinen lernen gesprochen hast. Ganz einfach.
0:36:06–0:36:08
Also es ging dann quasi darum, dass diese Maschinen etwas lernen,
0:36:09–0:36:14
dann, wenn man mal drüber nachdenkt, was da für eine Hierarchie entsteht oder für ein Bild entsteht.
0:36:14–0:36:19
Ist halt so, da ist die Maschine, die füttern wir, die ist wie so ein Hase.
0:36:20–0:36:24
Dem geben wir Sachen und der sitzt was lernen, der lernt so Tricks und dann
0:36:24–0:36:29
macht er Sachen schön, dann kann er auf einmal neue Sterne finden oder was auch immer.
0:36:29–0:36:37
Aber der wird quasi von uns als lehrende Einheit gefüttert, um dann was ganz
0:36:37–0:36:39
spezielles, Besonderes zu tun.
0:36:39–0:36:43
Wenn man nicht mehr von Lernen spricht, sondern von Intelligenz spricht,
0:36:43–0:36:47
dann geht es nicht mehr in Rezeption von Informationen und damit zu arbeiten
0:36:47–0:36:49
und die zu lernen, sondern es geht ja schon um Produktion.
0:36:49–0:36:56
Intelligenz erstellt ja Lösungen, findet Wege in Systemen und so und ich glaube,
0:36:56–0:36:58
das macht manchmal auch so ein bisschen bedrohlich.
0:36:58–0:37:03
Die Intelligenz, die produziert und das, das können wir nicht immer kontrollieren.
0:37:03–0:37:09
Vorher war es halt so, da war diese Maschine Schüler oder Schülerin und jetzt
0:37:09–0:37:15
auf einmal ist diese Maschine Professor oder Professorin. Und da tun wir uns
0:37:15–0:37:16
dann irgendwie ein bisschen schwer damit.
0:37:17–0:37:22
Das heißt, die Angst ist in dieser Geschichte auch schon so ein bisschen mit eingebaut.
0:37:22–0:37:29
Sobald wir diese Pandora Büchse öffnen, kriegen wir das nicht mehr eingefangen,
0:37:29–0:37:32
und dann machen die so ihr Ding und hängen total ab.
0:37:32–0:37:36
Das Beste, was dem Menschen bleibt, ist halt eben die Texte zu studieren und
0:37:36–0:37:43
versuchen herauszufinden, was diese neuen Entitäten da geschrieben haben.