"Die Evolution hat nicht Lösungen zu spezifischen Problemen entwickelt, sondern generelle Problemlösungs-Maschinen" Michael Levin

Intelligenz kann in der Biologie überall angetroffen werden, wo Zellen sind. Zellen sind nichts weiter als kleine Automaten, die gegen die Entropie arbeiten. Leben ist Ordnung und die Intelligenz das Programm dazu. Diese Sichtweise leiten wir uns aus den Vorträgen und Interviews von Josha Bach und Michael Levin ab. Josha Bach liefert uns die Definition von Intelligenz als Fähigkeit Modelle zu entwerfen und daraus Handlungen abzuleiten, die auf Kausalität geprüft werden. Michael Levin hat Plattwürmer so weit bioelektrisch modifiziert, dass sie in der Mitte durchgeschnitten statt eines Schwanzes einen zweiten Kopf regenerieren. Er und sein Team entwickeln ein Framework, um diverse Intelligenzformen zu entdecken, zu untersuchen und auch künstlich herzustellen: Biologie stellt ein tief verschachteltes System dar und jede Ebene ist dabei sehr kompetent Probleme zu lösen.

Shownotes

Mitwirkende

avatar
Florian Clauß
Erzähler
avatar
Micz Flor

Transcript

Florian Clauß
0:00:01–0:00:05
Danke. Deins läuft 20?
Micz Flor
0:00:04–0:00:07
Am 20.. Die.
0:00:12–0:00:16
Wir sind alarmiert. Wie man im Hintergrund hört, ist ein wichtiges Thema.
0:00:18–0:00:22
Flo hat es ja in der letzten Folge schon ein bisschen anmoderiert.
0:00:23–0:00:27
Das überlasse ich dir dann gleich. Wir sind Flo.
0:00:27–0:00:32
Links neben mir. Ich bin Matze vom eigentlich Podcast, in dem wir.
0:00:33–0:00:39
Eigentlich wandern, aber meistens in der Stadt rumgurken, zu Fuß reden,
0:00:39–0:00:42
beim Laufen und laufend reden und,
0:00:43–0:00:48
immer abwechselnd ein Thema vorbereiten und dann trotzdem heimlich wünschen,
0:00:48–0:00:49
dass daraus ein Gespräch wird.
0:00:50–0:00:55
Und mit diesen einleitenden Worten übergebe ich an dich, Flo.
Florian Clauß
0:00:55–0:01:02
Ja hallo auch von meiner Seite ja heute Episode eigentlich Podcast 20.
0:01:03–0:01:10
Und der dritte Teil unserer Serie Serie zu künstlicher Intelligenz.
0:01:11–0:01:18
Und mit ähnlich wie es ihr das letzte Mal gegangen ist, nämlich ein Seminar
0:01:18–0:01:20
vorzubereiten. So ging es mir auch.
0:01:20–0:01:28
Ich hatte dir auch in der Vorbereitung zu der Sendung kam mir einen Vortrag unter.
0:01:30–0:01:36
Der abgehalten wurde im Panel von Intel Labs dagegen ist um.
0:01:39–0:01:45
Tina Ristic. Es ging um Vertreter der AI und Deep Learning. Und.
Micz Flor
0:01:45–0:01:48
Also Artificial Intelligence, die englische KI.
Florian Clauß
0:01:47–0:01:51
Genau genau dieses Mal war Joscha Bach eingeladen.
0:01:51–0:01:58
Es war noch Michael Levin als weiterer Gast eingeladen.
0:01:59–0:02:03
Und dieser Vortrag hat mich dann so fasziniert, dass ich dann halt,
0:02:05–0:02:09
mich hingesetzt habe und den halt auch nochmal durchgehört und dann würde ich
0:02:09–0:02:10
gerne nochmal so referieren.
0:02:11–0:02:16
Und ich habe auch ein bisschen mehr von den beiden gehört.
0:02:16–0:02:22
Die treten häufig in einigen Podcasts zusammen auf, haben aber auch einzelne,
0:02:23–0:02:27
Episoden mit anderen Interviewern, wo sie interviewt werden.
0:02:27–0:02:32
Und Joscha Bach ist uns ja auch schon oft untergekommen.
0:02:32–0:02:38
Er war auch quasi so mit ein Initiationserlebnis für den Podcast,
0:02:39–0:02:43
nämlich als wir damals alternativlos die Folge gehört.
Micz Flor
0:02:42–0:02:43
42.
Florian Clauß
0:02:44–0:02:48
Genau, Alternativlos war, dass die Folge 42. Ja, stimmt.
Micz Flor
0:02:46–0:02:49
Ja, das war ja der Witz. Die haben ja ewig drauf gewartet wegen die Antwort
0:02:49–0:02:53
auf alle Fragen. Und dann hatten sie ja schon Bach eingeladen.
Florian Clauß
0:02:54–0:03:00
Genau wo dann halt in der Alternativloses der Podcast von Felix von Leitner
0:03:00–0:03:04
und Frank Rieger und die hätten Joscha Bach das Ganze.
0:03:04–0:03:10
Die kommen alle aus dem Chaos Computer Club, das heißt die kennen sich dann,
0:03:10–0:03:18
untereinander und wir hatten damals diese Folge beim Begehen der Bürgerspitze. Genau.
Micz Flor
0:03:16–0:03:17
Biker Spitze.
Florian Clauß
0:03:19–0:03:24
Ja, ein langer, mühsamer Weg und wir mussten uns irgendwie ablenken.
Micz Flor
0:03:20–0:03:21
Ein mühsamer.
Florian Clauß
0:03:24–0:03:28
Um halt durch über diese Schotterfeld, was dann wirklich drei Stunden gedauert hat.
0:03:28–0:03:33
Und das war echt sehr zermürbend, aber faszinierend zugleich.
0:03:33–0:03:39
Und ich meine, Joscha Bach, du kennst seine Art es ist der ist auf auf,
0:03:39–0:03:46
auf uns also sehr schnell und sehr komprimiert was er sagt.
0:03:46–0:03:51
Also er hat sehr viele Referenzen und man muss da in jedem Satz ist da schon,
0:03:51–0:03:54
ganz viel Informationen reingefaltet deswegen.
Micz Flor
0:03:54–0:03:57
Ja, ich bin da so ein bisschen hin und hergerissen. Ich magister das und ich
0:03:57–0:04:02
habe gleichzeitig oft das Gefühl, das muss alles irgendwie computing sein.
0:04:02–0:04:05
Also es wird alles. Es geht immer nur um Informationsflüsse,
0:04:05–0:04:07
alles wird auf Information runtergebrochen.
0:04:07–0:04:13
Und das ist ja in meiner letzten Folge, meiner kommenden Folge immer so, diese Grenze.
0:04:13–0:04:18
Du bist halt bei diesem einen Body Problem ganz viel, wenn es um um lebendige Systeme geht.
0:04:20–0:04:25
Und da ist es mir dann manchmal ein bisschen zu schnell, weil ich habe,
0:04:26–0:04:30
Ich finde es immer total toll, auch was er auf Twitter so schreibt und manchmal
0:04:30–0:04:34
hat man so das Gefühl, das ist zu 99,7 % wahr,
0:04:35–0:04:37
aber diese 0,3 %,
0:04:37–0:04:39
da wird es halt wirklich spannend.
0:04:40–0:04:43
Aber wie gesagt, ich bin ja auch nicht auf der auf der Ebene.
Florian Clauß
0:04:44–0:04:50
Also Joscha Bach ist Kognitionswissenschaftler, ist jetzt glaube ich auch tatsächlich
0:04:50–0:04:57
in diesem Intel Lab mit als beteiligt und kann da seine Untersuchung seine Forschung treiben.
0:04:57–0:05:04
In dem Rahmen hat hat glaube ich auch in der Humboldt Uni in 2009 hat er glaube
0:05:04–0:05:10
ich auch sein sein, seine Arbeit geschrieben.
0:05:10–0:05:14
Ich weiß nicht, ich bin mir nicht sicher, ob er ein PhD gemacht hat oder bei Master.
0:05:15–0:05:23
Er hat im Bereich der ganzen Computer Sciences da auch Vorreiter.
0:05:23–0:05:27
Also er ist dann halt genau dieses in Kognitionswissenschaften.
0:05:27–0:05:29
Er bringt dann halt das.
0:05:31–0:05:36
Also im Prinzip in so einem interdisziplinären Feld, wo er viel auch biologische,
0:05:36–0:05:44
Systeme mit vergleicht, aber auch in diesem Eiki und Learning Umfeld aktiv ist.
0:05:45–0:05:51
Michael Lewin stell ich auch kurz vor, ist Biologe, hat viele Untersuchungen
0:05:51–0:05:52
im Bereich Morphologie.
0:05:53–0:05:58
Ist wird so ein bisschen gehandelt als der neue Nobelpreisträger, weil der hat schon sehr,
0:06:00–0:06:04
sehr weitgehende Experimente gemacht und seine Ansätze die er da vorstellt Ich,
0:06:04–0:06:07
ich gehe, ich, ich mache viele plastische Beispiele und,
0:06:08–0:06:14
was er da so was er da so halt so erforscht und das ist extrem spannend und
0:06:14–0:06:18
die beiden zusammen, die haben sich in den Vorträgen auch immer so die Bälle
0:06:18–0:06:21
zugeworfen, das heißt, die haben, glaube ich auch zusammen eine Firma gegründet,
0:06:22–0:06:24
wo die dann teilweise ihre.
0:06:26–0:06:31
Ihre Erkenntnisse und auch dann auch entsprechend dann umsetzen können im Rahmen der Firma.
0:06:33–0:06:39
Genau. Also es ging eben so ein bisschen um Beyond Artificial Intelligence bei
0:06:39–0:06:43
dem Vortrag, das heißt Beyond ist jetzt von mir eingebracht, also so ein bisschen,
0:06:45–0:06:50
wo steckt dann halt die künstliche Intelligenz mit diesem Machine Learning Modell,
0:06:50–0:06:55
mit neuronalen Netzen, wo steckt die fest und was gibt es in der Biologie quasi
0:06:55–0:06:58
für Modelle, die da eventuell,
0:06:58–0:07:02
einfach so auch neue Wege zeigen können, die man dann adaptieren könnte,
0:07:03–0:07:06
in diese Bereiche rein und.
0:07:08–0:07:12
Die Frage ist natürlich Und da bist du der Mensch?
0:07:12–0:07:17
Nein, genau was du zu Joscha Bach gesagt hast. Was ist denn jetzt eigentlich Intelligenz?
0:07:17–0:07:20
Wie würdest du Intelligenz beschreiben? Und so wie er es beschreibt,
0:07:20–0:07:28
ist Intelligenz die Möglichkeit, ein Modell von der Welt.
0:07:31–0:07:38
Also so berechenbar zu machen, um so quasi die nächsten Schritte einzuleiten.
0:07:38–0:07:42
Also du machst dir ein Bild von dem, von dir, von deinem Universum,
0:07:42–0:07:46
von deinem Environment und diese.
0:07:46–0:07:50
Also wie auch immer, eine Virtualisierung und du kannst quasi mit.
0:07:50–0:07:55
Aufgrund dessen kannst du dann quasi die nächsten Schritte berechnen und dann
0:07:55–0:08:00
wieder als Handlung die Welt in eine Umgebung wieder zurücktragen.
0:08:00–0:08:05
Nee, also das ist, das ist jetzt mal ganz grob gesprochen eine Definition von Intelligenz.
Micz Flor
0:08:06–0:08:11
Genau. Also, dass man kurz gesagt, man kann Probleme lösen, indem man die Dinge
0:08:11–0:08:15
erfasst, die das Problem sind bzw.
0:08:15–0:08:20
Herstellen und dass man dann auf eine Form kreativ nicht nur eine und immer
0:08:20–0:08:25
gleiche, sondern auch unterschiedliche Lösungen für dieses Problem.
Florian Clauß
0:08:25–0:08:30
Es ist die Fähigkeit, Modelle zu entwerfen.
Micz Flor
0:08:28–0:08:30
Ja, Ja, ja.
Florian Clauß
0:08:33–0:08:38
Und die Modelle sind dann nichts weiter als berechenbare Funktion, die dann halt wieder.
0:08:39–0:08:43
Also es gibt da eine gewisse Simulalität, das heißt kann es so und so viele
0:08:43–0:08:47
Modelle dann halt in einem Kopf vorhalten oder so und so viele Aktionen daraus
0:08:47–0:08:49
ableiten. Das ist eine gewisse Parallelisierung.
0:08:50–0:08:53
Und wenn ich das mache, dann passiert das. Und wenn ich das mache, dann passiert das.
0:08:54–0:08:57
Und dann daraufhin eine Entscheidung treffen, wie gehst du dann,
0:08:57–0:08:58
wie machst du es dann halt.
0:08:59–0:09:04
Das ist so die Möglichkeit und damit ist es halt wieder so. Abstrakter ausgedrückt,
0:09:04–0:09:08
im Prinzip ist es dann halt auch Intelligenz wieder berechenbar.
0:09:08–0:09:11
Und da sind wir wieder bei der Turingmaschine.
Micz Flor
0:09:11–0:09:14
Ja, genau. Ja, genau.
0:09:14–0:09:20
Die Turingmaschine, die ja nur dann Intelligenz bezeugt bekommt,
0:09:20–0:09:24
wenn ein wie auch immer gearteter Beobachter, der scheinbar ein bisschen höher
0:09:24–0:09:29
steht als Turing, Intelligenz in der Lage ist zu sagen, es sei nicht unterscheidbar.
0:09:29–0:09:32
Und das finde ich halt immer genau diesen Sprung zwischen dem,
0:09:33–0:09:40
zwischen dem deskriptiven und dann diesem metaphysischen Ansatz. Aber.
Florian Clauß
0:09:40–0:09:46
Oje. Dann ist auch die Frage von der Anwendung von eben.
0:09:47–0:09:51
Also wie wirksam das ist. Wenn du deine Umgebung beeinflusst,
0:09:51–0:09:56
dann, wenn du halt irgendwie handelst in irgendeiner Form, also rein zufällig,
0:09:57–0:09:58
dann passiert was. Aber du?
0:09:58–0:10:01
Die Frage ist natürlich, wie du zielgerichtet handeln kannst,
0:10:01–0:10:03
um dann letztendlich dein Ziel zu erreichen.
0:10:04–0:10:07
Das ist ja so immer dieses. Also dieses Goal driven.
Micz Flor
0:10:08–0:10:12
Ja nicht nur Gold und das ist das Prozedurale auch das halt.
0:10:12–0:10:15
Das wird oft eben bei diesem Deep Learning auch nicht wirklich.
0:10:16–0:10:19
Wie du in der letzten Folge gesagt hast. Gibt halt so einen Trigger,
0:10:19–0:10:21
man fragt was und dann kriegt man auch eine Antwort drauf.
0:10:22–0:10:27
Aber diese Idee, dass man vorausschauend prozedural etwas entwickelt oder auch auf,
0:10:28–0:10:34
auf was sie angeht, gibt so ein bisschen ist aber eben auf Dinge reagiert und
0:10:34–0:10:40
die Mittel to take into account, also dass die mit in einem Prozess mit berücksichtigt werden.
0:10:41–0:10:47
Das ist natürlich noch mal eine ganz andere Hausnummer, dass man eben vorausschauend
0:10:47–0:10:51
Modelle irgendwie auf die Welt anwendet und dann Ziele, Motivation und diese
0:10:51–0:10:53
Sachen alles reinbringt.
Florian Clauß
0:10:53–0:10:59
Also hier vielleicht. Du hast schon referenziert, was jetzt so gibt der Unterschied
0:10:59–0:11:06
zu dem anderen was, was jetzt Deep Learning eigentlich ist, Deep Learning oder Learning.
0:11:07–0:11:10
Das ist im Prinzip, das skaliert.
0:11:11–0:11:15
Je mehr Daten ich habe, desto besser wird mein Modell.
0:11:16–0:11:19
Und das ist ja genau dieser Ressourcenverbrauch, den du auch angemerkt hast.
0:11:20–0:11:24
Es ist genau diese Sache. Ich muss unglaublich viele Ressourcen in das System
0:11:24–0:11:28
stecken und je mehr ich da reinpumpe, desto besser wird es.
0:11:29–0:11:39
Das ist ja. Also Beispiel Bildverarbeitung oder Bilderkennung und Bildgenerierung ist ja so, je mehr,
0:11:39–0:11:45
Bilder ich dann in dieses System gebe, desto besser wird dann halt auch der Output von dem System.
0:11:45–0:11:51
Und es ist im Prinzip also so, so wie es momentan funktioniert.
0:11:51–0:11:53
Es ist ja so, dass du das das,
0:11:56–0:11:59
du kannst, du Kleiner also du kannst. Wenn du ein Ergebnis hast,
0:11:59–0:12:03
dann kannst du sagen ja, mache ein bisschen das und das und dann kriegt es ein
0:12:03–0:12:05
anderes Ergebnis. Also du kannst so kleine.
0:12:07–0:12:12
Kleine. Direktiven ändern und kriegst dann halt ein anderes Ergebnis.
0:12:12–0:12:17
Es wird so, weil es eben aufgrund dieser Masse dann halt genau diese ganzen,
0:12:17–0:12:18
Ergebnisse liefern kann.
0:12:19–0:12:26
Gleichzeitig ist es extremst ressourcenaufwendig, weil es immer so eine Einzelbild Betrachtung hat.
0:12:27–0:12:34
Das heißt wenn du auf dem Bild, wenn du halt so keine 51.000 Bilder von Stühlen hast,
0:12:34–0:12:39
dann fängst du an und trainierst das System und sagst hier so der Umriss,
0:12:39–0:12:42
so sieht ein Stuhl aus in einer anderen Ebene.
0:12:42–0:12:47
Von dem neuronalen Netz sagst du halt so der Stuhl kann schwarz oder braun sein,
0:12:47–0:12:49
also oder der Stuhl kann.
0:12:49–0:12:52
Du hast ja dann so verschiedene Verknüpfungen sebene, um nur halt irgendwie,
0:12:52–0:12:57
so eine Gestaltswahrnehmung auf unterschiedlichsten Ebenen miteinander zu verknüpfen.
0:12:57–0:13:01
Aber du bist die ganze Zeit dabei, diesem System zu sagen das ist ein Stuhl,
0:13:01–0:13:04
das ist ein Stuhl, das ist ein Stuhl und dann kriegt es halt irgendwie.
0:13:04–0:13:07
Das System sagt dann halt nach dem ersten Trainingsrunde ah,
0:13:07–0:13:10
zu 80 % bin ich mir sicher, dass das ein Stuhl ist.
0:13:10–0:13:14
Und dann sagst du Nein. Doch, und dann und dann halt irgendwie trainiert das,
0:13:14–0:13:20
dann doch irgendwie. Zu 99,7 % bin ich mir sicher, dass es ein Stuhl ist. Und das ist.
Micz Flor
0:13:20–0:13:22
Wer und das ist aber nochmal wichtig festzuhalten, was du da beschreibst,
0:13:22–0:13:26
ist glaube ich in der Tat gerade das Ziel, dass man das halt so perfekt schafft,
0:13:27–0:13:31
weil natürlich momentan am meisten durch die Presse geht, Wenn irgendwie eine
0:13:31–0:13:35
künstliche Intelligenz, die ein Auto lenkt, für Unfälle und Tode sorgt.
0:13:35–0:13:42
Das ist halt wirklich angsteinflößend und deshalb ist es halt gerade so ein
0:13:42–0:13:45
Incentives, das Ding perfekt zu machen.
0:13:45–0:13:50
Und das wird eben dann aber wiederum auch auf einer sozialen Ebene durch Publikationen
0:13:50–0:13:52
gefördert. Das heißt, es werden halt mehr Sachen publiziert,
0:13:52–0:13:54
wo es halt noch besser wird. Noch besser wird noch.
0:13:54–0:13:59
Wenn allerdings irgendwann das Ganze kippt und man merkt, man kann das einfach
0:13:59–0:14:01
mit der bestehenden Energie nicht mehr,
0:14:03–0:14:07
weder moralisch noch finanziell irgendwie durch pushen, dann kann es gut sein,
0:14:07–0:14:11
dass auf einmal das Ziel wird zu sagen energieeffizient.
0:14:11–0:14:12
Das gleiche Ergebnis.
0:14:13–0:14:17
Sagen wir mal, das Ergebnis ist uns jetzt gut genug und jetzt gewinnt immer
0:14:17–0:14:21
die Publikation, die energieeffizient Algorithmen entwickelt oder Hardware entwickelt,
0:14:21–0:14:22
die das Gleiche herstellen kann.
0:14:23–0:14:26
Also ich glaube diese Idee, dass dass es.
0:14:27–0:14:33
Dass es immer darum geht, das System noch zu verbessern. Das ist angelegt auch,
0:14:33–0:14:38
in Einladungen, auf Konferenzen, in Publikationen, im Magazin. Das.
Florian Clauß
0:14:39–0:14:43
Ja, ich meine aber, wie du sagst. Du wirst dann irgendwann in diesem in diesem
0:14:43–0:14:48
exponentiellen Bereich, wo du für eine Verbesserung des Systems,
0:14:48–0:14:52
wie bei Bitcoin dann halt so viel mehr Aufwand reinstecken musst,
0:14:52–0:14:56
dass sich das dann halt in der Energiebilanz gar nicht mehr lohnt.
Micz Flor
0:14:56–0:15:01
Ja und das spannende ist ja auch das, dass es sich eben nicht mehr lohnt, Dinge auszusitzen.
0:15:01–0:15:04
Das war früher so, dass man oft zum Beispiel Patente angemeldet hat für bestimmte,
0:15:05–0:15:07
Algorithmen, um Datenbanken zu durchsuchen.
0:15:07–0:15:12
Nicht weil die gut sind, sondern weil man wusste okay, spätestens in fünf Jahren,
0:15:13–0:15:15
ist die Hardware gut genug, das zu rechnen.
0:15:15–0:15:18
Jetzt gerade geht es dann nicht. Aber der Algorithmus, den kann ich schon mal patentieren lassen.
0:15:18–0:15:23
Und diese, dieses Warten auf bessere, schnellere Hardware, das kommt gerade
0:15:23–0:15:24
ein bisschen ins Stocken.
0:15:25–0:15:30
Wird neue Hardware entwickelt und deshalb ist es auf einmal noch ein ganz anderes
0:15:30–0:15:35
Incentives, auch energiesparend zu arbeiten, weil man nicht mehr davon ausgehen
0:15:35–0:15:39
kann, dass es halt bis die Doktorarbeit publiziert ist. Der wird schon gehen.
Florian Clauß
0:15:39–0:15:42
Ja, ja, ja, ja, genau.
0:15:42–0:15:46
Also auch die Frage, wie kriegt man da jetzt eine neue Ära oder andere Modelle
0:15:46–0:15:51
rein? Und da ist jetzt auch den Ansatz, den jetzt dann Joscha Bach und Michael
0:15:51–0:15:55
Lewin liefern ist halt ähm das eben.
0:15:56–0:16:03
Also und dann aus der Biologie angelehnt, dass man quasi die einzelnen Teile,
0:16:04–0:16:09
in einem neuronalen Netz dass die dann halt quasi,
0:16:10–0:16:13
viel berechnender sind also,
0:16:15–0:16:17
jetzt wie so kleine Turingmaschine,
0:16:18–0:16:23
die dann halt auch eben auf dieser Ebene Entscheidungen treffen können,
0:16:23–0:16:28
die dann nicht mehr dieses Ganze den Kontext brauchen, sondern halt eine eigene.
0:16:28–0:16:32
Ich sag mal so eine eigene Logik mitbringen, eigenes Programm,
0:16:32–0:16:37
was sie dann halt abfahren können und was dann halt quasi auf die eine,
0:16:37–0:16:39
auf die Umwelt dann wieder wirkt.
0:16:40–0:16:44
Das heißt, das ist genau dieser, dieser Ansatz, das, dass es halt,
0:16:46–0:16:51
an der Stelle effektiver und energieeffizienter wird und da kommst du halt in
0:16:51–0:16:57
diesem Bereich der zellulären Turingmaschine, weil Zellen sind halt Turingmaschine.
0:16:57–0:17:00
Das ist halt so, das kann man halt einfach so sagen.
0:17:01–0:17:05
Ich hab auch Cherrypity gefragt und er hat gesagt ja geht.
Micz Flor
0:17:03–0:17:04
Was soll ich sagen?
Florian Clauß
0:17:06–0:17:12
Darf ich sagen, Zellen sind einzelne Turingmaschinen, weil es gibt dann halt.
Micz Flor
0:17:06–0:17:07
Die Wirtschaft.
Florian Clauß
0:17:12–0:17:17
111 Reiz, ein Einwirken, es gibt ein Programm, was abläuft und es gibt dann
0:17:17–0:17:22
halt ein eine Reaktion oder eine Aktion, die daraus folgt.
0:17:22–0:17:25
Es ist ja im Prinzip und jetzt ist es halt rein deterministisch,
0:17:26–0:17:28
es läuft halt durch den Zellkern, wie auch immer.
0:17:29–0:17:32
Aber es ist ja sehr programmatisch, das ist eine Turingmaschine,
0:17:32–0:17:35
die kann dann halt bestimmte Antworten formulieren.
Micz Flor
0:17:35–0:17:39
Aber dann springe ich nur ganz kurz in die Konrad Zuse Folge. Ich finde es.
Florian Clauß
0:17:38–0:17:40
Ja, ja, genau das will ich. Sehr gut.
Micz Flor
0:17:40–0:17:46
Nein, da gab es ja diese, diese Grenzen, diese kleinen Maschinenbauwerks Werkbank
0:17:46–0:17:48
oder ich weiß gar nicht mehr genau, wie es hieß,
0:17:49–0:17:57
der ja die Überlegung hatte also der Erfinder des ersten Computers mechanisch
0:17:57–0:18:01
und dann später mit Relais und dann später mit Transistoren.
0:18:01–0:18:05
Der hatte dann irgendwie schon in den 60er Jahren die Idee, man könnte eben,
0:18:05–0:18:08
eine Werkbank bauen, die vollautomatisch sich selbst replizieren kann.
0:18:09–0:18:13
Und nicht nur das, sondern sie könne sich dann auch selbst replizieren und immer kleiner machen.
0:18:13–0:18:16
Also eine Art Universalmaschine. Nicht als Computer in der digitalen,
0:18:16–0:18:19
symbolisierten Welt, sondern in einer materiellen Welt.
0:18:20–0:18:25
Und das war wirklich auch so inspiriert von der Biologie ist damals natürlich,
0:18:25–0:18:30
das haben wir ja dann irgendwie im Moment im Technikmuseum erlebt,
0:18:30–0:18:32
an dem Energiethema gescheitert.
0:18:34–0:18:38
Aber genau da ging es auch darum, Zellen zu bauen.
0:18:39–0:18:44
Die Zellen, die, wie wir vermuten, trans episodenhaft vermuten,
0:18:44–0:18:49
mit Quantenmechanik Dinge stemmen können, die Newtonsche Materie einfach nicht kann.
0:18:50–0:18:53
Und ja, zu Punkt.
Florian Clauß
0:18:53–0:18:57
Ja ne, genau. Dann muss ich auch daran denken, dass es im Prinzip also dieser
0:18:57–0:19:02
Ansatz, den auch Suse dann halt gemacht hat, eben diese, diese sich immer verkleinerten
0:19:02–0:19:05
Maschinen, die dann aber auch immer ein Programm fahren.
0:19:06–0:19:10
Also genau das ist immer so aus der aus der Biologie ist es so,
0:19:10–0:19:14
dass die Ressource die quasi teuer ist.
0:19:16–0:19:21
Wenn du jetzt auf biologische Systeme guckst, ist die Zeit ne.
0:19:21–0:19:26
Während du bei so einem Machine Learning, bei so einem ist Zeit kein nicht teuer.
0:19:26–0:19:32
Zeit ist fast unbegrenzt verfügbar, weil du hast diese extreme hohe Taktfrequenz
0:19:32–0:19:36
hast, während du biologische Systeme live laufen, einen ganz anderen Takt.
Micz Flor
0:19:37–0:19:40
Wenn die schneller Attacken würden, würden sie verbrennen.
Florian Clauß
0:19:40–0:19:45
Ja, genau. Nein, die laufen halt in Millisekunden.
0:19:45–0:19:49
Diese weiß, wie viel Rechenleistung einfach durch diese extrem hohe Taktfrequenz
0:19:49–0:19:52
und die Parallelisierung dadurch ist, zeigt keinen.
0:19:52–0:19:56
Deswegen kann man diese ganzen Millionen Bilder überhaupt prozessieren,
0:19:56–0:19:59
weil Zeit dann halt irgendwie keine Rolle spielt.
0:19:59–0:20:06
Wenn im Gehirn oder im biologischen System ist das halt eine sehr rare Ressource.
0:20:06–0:20:14
Das heißt, hier gibt es dann eben diese Notwendigkeit, dass man halt operationalisiert,
0:20:14–0:20:18
indem man halt diese Berechnung, also das heißt,
0:20:18–0:20:23
es werden durch diese, wenn man diese kleinen Turing Dinger da die Zellen dann
0:20:23–0:20:28
sieht, dass die halt quasi parallel alle möglichen Zustandsformen berechnen können.
0:20:29–0:20:34
Das ist halt so das, was ein biologisches System wieder schneller macht oder effektiver.
0:20:35–0:20:39
Das heißt, diese, ich sage jetzt mal, diese Intelligenz ist dann halt viel mehr
0:20:39–0:20:44
in diesen einzelnen Knoten aufgehoben, die dann halt aber autark für sich dann
0:20:44–0:20:46
halt bestimmte Berechnungen ausführen können.
0:20:48–0:20:50
Und dass dadurch das effektiver wird.
0:20:50–0:20:55
Gleichzeitig gibt es dann halt auch diese, diese Möglichkeit.
0:20:56–0:20:59
Was jetzt gemacht wird, ist dann halt eine Parallelisierung.
0:20:59–0:21:07
Da kommt wieder dieser Begriff von ah, das ist so aus dem Darwinismus entlehnt.
0:21:07–0:21:11
Das ist dann halt quasi die Wirklichkeit,
0:21:12–0:21:17
also die Idee, dass das Gehirn quasi,
0:21:17–0:21:23
ein sowieso ein Multiversum ist, weil alle möglichen Realitäten schon irgendwo
0:21:23–0:21:27
als Modelle in diesem Gehirn zeitgleich ablaufen, bis dann halt tatsächlich
0:21:27–0:21:30
das reale Handeln dann einfach ein Modell Wirklichkeit werden lässt.
0:21:30–0:21:34
Aber es ist halt eigentlich das Gehirn funktioniert wie ein Multiversum,
0:21:35–0:21:39
weil halt genau diese ganzen Zustände schon irgendwo vorhanden und berechnet werden.
0:21:39–0:21:42
Und das ist halt so, diese Effektivität von biologischen Systemen.
0:21:43–0:21:45
Also es ist sehr abstrakt, aber so?
Micz Flor
0:21:45–0:21:49
Ja, ja, es geht. Da glaube ich auch darum, dass du natürlich in dem Multiversum
0:21:49–0:21:54
hast du halt immer dieses, dieses Bild, dass alles, was möglich ist,
0:21:54–0:21:56
parallel auch schon irgendwie ist oder so.
0:21:57–0:22:00
Während in biologischen Systemen, glaube ich, ist über die Zeitkomponente,
0:22:00–0:22:04
was du gerade gesagt hast, das auch immer ein bisschen eingeschränkt.
0:22:05–0:22:10
Wir haben ja natürlich jedes Mal Ende des Jahres gibt es die besten Wünsche
0:22:10–0:22:14
für das nächste Jahr und dann irgendwelche Kalendersprüche oder so Bilder, die uns aufzeigen.
0:22:15–0:22:18
Die Reise ging jetzt bis hier. Das heißt aber nicht, dass sie in die Richtung
0:22:18–0:22:21
weitergehen musst Du bist frei, dich immer wieder irgendwohin zu drehen,
0:22:21–0:22:27
was Neues anzufangen, während in Wahrheit biologische Systeme natürlich nicht determiniert sind.
0:22:27–0:22:32
Allerdings der Möglichkeitsraum ist eingeschränkt, Es sind nicht alle möglichen
0:22:32–0:22:38
Universen parallel existent, aber von allen Möglichkeiten, die es gibt,
0:22:38–0:22:40
was ein begrenzter Raum ist,
0:22:41–0:22:45
wird dann eine gewählt und das determiniert dann eben den nächsten Schritt.
Florian Clauß
0:22:47–0:22:52
Genau. Ähm, also die. Die machen auch so ein bisschen.
0:22:52–0:22:56
Also die jetzt Joscha Bach und Michael Lewin, die bashen auch so ein bisschen
0:22:56–0:23:00
gegen die bestehenden Biologieansichten.
0:23:01–0:23:07
Was jetzt in der Neurowissenschaft usw. jetzt so dafür Modelle eben vorherrschen. Also ein.
0:23:07–0:23:10
Ein Beispiel ist halt das ähm.
0:23:12–0:23:16
Dass die Neurowissenschaftler eigentlich keine geeigneten Tools haben,
0:23:16–0:23:22
die versuchen, das Gehirn zu verstehen, indem sie halt draufgucken und dann halt beobachten.
0:23:22–0:23:26
Aber jetzt zum einen Ein,
0:23:27–0:23:30
Experiment hat gezeigt, dass sie zum Beispiel auch Neurowissenschaftler mit
0:23:30–0:23:36
ihren Tools wenn die dann zum Beispiel nur so einen Mikroprozessor Reverse Engineering
0:23:36–0:23:38
sollen, dass die das nicht hinbekommen haben.
0:23:38–0:23:41
Also du guckst dann auch und ich meine, das Gehirn ist noch viel komplexer.
0:23:42–0:23:45
Also wenn du noch nicht mal das schaffst, ein Mikroprozessor,
0:23:45–0:23:50
dann halt so, um zu wissen, wie der funktioniert, weil das halt nicht auflösbar.
Micz Flor
0:23:50–0:23:55
Die Nummer, das heißt die, die, weil die Neurologen nicht Computer bauen können.
Florian Clauß
0:23:55–0:23:58
Wenn nicht Computer, dann reverse engineering, also immer quasi ein.
0:23:59–0:24:02
Also wenn du jetzt ein Mikroprozessor von außen drauf guckst,
0:24:02–0:24:06
den beobachten kannst, du kannst den dann halt nicht mit deren Tools head kann
0:24:06–0:24:09
man den jetzt nicht Reverse Engineering und wissen wie der funktioniert?
Micz Flor
0:24:09–0:24:14
Zu mir. Okay, gut. Das weiß ich. Was ist? Ich müsste mal. Ich.
Florian Clauß
0:24:11–0:24:15
Also es war jetzt so ist es, glaube ich, so ein bisschen, ein bisschen anekdotisch.
Micz Flor
0:24:15–0:24:16
Anekdotisch. Ja, ja, ja.
Florian Clauß
0:24:15–0:24:21
Ich weiß nicht, ob das jetzt nur so ein Bashing ist und dann halt irgendwie so und und und.
Micz Flor
0:24:16–0:24:19
So ein Bashing ist dann halt irgendwie so und.
Florian Clauß
0:24:21–0:24:27
Eine interessante Erkenntnis ist auch das ist also wo wo ich dann ja klar also,
0:24:28–0:24:32
also die Zellen sind ja alle irgendwo gleich aufgebaut.
0:24:32–0:24:37
Sie kriegen ja dann halt je nach Entwicklung des des Individuums kriegen die
0:24:37–0:24:39
dann halt entsprechende Interna.
0:24:39–0:24:43
In so einer Entwicklungsphase kriegen die ja dann die Aufgaben zugewiesen.
0:24:43–0:24:49
Und die Frage ist halt, was unterscheidet jetzt die Neuronen von anderen Zellen?
0:24:50–0:24:58
Und die Neuronen sind ja auch dann nur so in tierischen Lebensformen, so sind die quasi drin.
0:24:59–0:25:04
Das ist ja nicht in Pflanzen, da gibt es ja keine Neuronen in dem Sinne Neuronen.
0:25:04–0:25:08
Das was die unterscheidet, ist halt diese extrem langen Arme,
0:25:08–0:25:12
die Axiome, die dann mit denen, denen dann halt quasi diese, ähm,
0:25:13–0:25:18
diese, diese elektrischen Impulse übertragen werden können und was den das jetzt
0:25:18–0:25:23
bringt, ist ein extremer Zeitvorteil und deswegen kam dann auch nochmal so ein
0:25:23–0:25:25
Schluss daraus ist halt, dass,
0:25:26–0:25:34
quasi mit der Entwicklung der Neuronen dann auch eine andere Taktfrequenz bei
0:25:34–0:25:39
dem jeweiligen Organismus und deswegen konnten halt zum Beispiel die Tiere dann,
0:25:39–0:25:41
sich schneller bewegen als Pflanzen,
0:25:42–0:25:43
und dann wird auch gesagt, dass.
Micz Flor
0:25:43–0:25:45
Bei den meisten Fans sind wirklich schnell.
Florian Clauß
0:25:45–0:25:51
Äh, nein. Aber es ist auch die Frage, wo entsteht dann halt Intelligenz?
0:25:51–0:25:56
Und wenn du dann dieses Modell von Intelligenz das ist, dann ist auch eine Pflanze
0:25:56–0:25:58
intelligent, nur auf einer anderen Zeitachse.
0:25:58–0:26:03
Also das ist dann hier auch so, dass es halt dann so ein bisschen wie bei Herr
0:26:03–0:26:07
der Ringe, die sind die, die wir essen hier abends oder wie heißen diese Bäume,
0:26:08–0:26:11
die dann halt auch mehr extrem lange und jetzt müssen sie auf einmal in so einer
0:26:11–0:26:13
Echtzeit anfangen zu reagieren.
0:26:13–0:26:18
Das können die gar nicht, weil die überhaupt nicht auf diese Zeit Taktung eingestellt sind.
0:26:18–0:26:23
Und das finde ich halt total auch so okay. Also ich meine, das ist ja so, man sucht dann halt.
0:26:23–0:26:26
Er versucht dann immer so, man hat dieses und das ist meine ich halt so dieses,
0:26:27–0:26:32
was wir in der Folge davor besprochen haben, dieses sehr menschenfixierte Idee
0:26:32–0:26:34
von Intelligenz, Bewusstsein usw.
0:26:34–0:26:39
Aber wenn du das halt man dann siehst, halt irgendwie ist überall Intelligenz im System drin.
0:26:40–0:26:44
Nur so funktioniert das, dass halt irgendwelche Orchideen den Hinterleib von
0:26:44–0:26:48
einer weiblichen Wespe mit den Duftstoffen nachbauen kann, um sich dann halt,
0:26:48–0:26:51
irgendwie quasi von der männlichen Wespe bestäuben zu lassen.
0:26:52–0:26:57
Also nur wie funktioniert das? Aber irgendwie ist es ja auch dann,
0:26:57–0:27:02
wenn man halt sagt okay, da ist irgendwie Information drin, die kann prozessiert
0:27:02–0:27:05
werden und die kann zu bestimmten Aktionen führen.
0:27:05–0:27:08
Dann finde ich das wieder so gar nicht so erstaunlich.
Micz Flor
0:27:09–0:27:14
Nein, das ist denn auch so. Intelligenz ist also eher im Rahmen von Kognition.
0:27:14–0:27:18
Wird dann so von basaler Kognition auch unterschieden, was Pflanzen auch irgendwie
0:27:18–0:27:24
schon haben könnten, wo man, wie du sagst, einfach mit der Zeitachse auch viel tun kann.
0:27:24–0:27:28
Wenn du den Efeu in Zeitrafferfilms wie einen Baum hochklettert,
0:27:28–0:27:33
dann hast du das Gefühl und das ist dann auch wieder eine menschliche Interpretation.
0:27:33–0:27:37
Auf einmal hast du das Gefühl, dieser Efeu, der guckt dann hier ein bisschen rechts, links.
Florian Clauß
0:27:36–0:27:39
Nein, das ist keine Dementi. Ich habe nämlich jetzt auch diese von Attenborough,
0:27:39–0:27:41
diese Pflanze hier geguckt.
0:27:41–0:27:45
Und die haben das wirklich mit so einem ganz neuen Technologien von Kamera.
Micz Flor
0:27:41–0:27:41
Okay.
Florian Clauß
0:27:45–0:27:48
Wo die dann halt im Zeitraffer dann gleichzeitig noch einen Schwenk gemacht habe.
0:27:48–0:27:51
Und es ist tatsächlich so in dieser Dynamik, wie die das gefilmt haben,
0:27:52–0:27:56
dann waren das halt einfach Verhaltensweisen, die man normalerweise aus der Tierwelt kennt.
0:27:56–0:28:01
Und das war wirklich so ein zielgerichteter Efeu schwingt sich rum über und,
0:28:01–0:28:04
und dann findet er halt irgendwie so einen Griff und geht da rein.
0:28:04–0:28:08
Also das ist halt gar nicht mehr so, dass es rein interpretiert ist,
0:28:08–0:28:11
sondern die funktionieren tatsächlich so, das ist total mein Blowing.
Micz Flor
0:28:11–0:28:15
Und ja, lustig, dass sie mit EFA war, weil normalerweise wird das immer mit
0:28:15–0:28:17
Erbsen über Erbsen gesprochen.
0:28:17–0:28:20
Ich habe jetzt gedacht, ich sage mal EHF, weil wir gerade sehr sympathisch sind.
Florian Clauß
0:28:20–0:28:23
Nein, es war Kletterpflanze. Nicht, ob das jetzt die Efeu Art war.
Micz Flor
0:28:21–0:28:29
Also okay, aber das genau Und dann ist es aber trotzdem so, dass die wie soll,
0:28:29–0:28:30
ich sagen? Also diese Frage.
0:28:32–0:28:36
Ähm, na es geht halt wieder zurück. Aber diese Frage, was du schon so gesagt hast, dieses,
0:28:37–0:28:42
Antroposophische, eben dieses Menschen Mensch ist der Mittelpunkt und vom Menschen
0:28:42–0:28:45
ist es alles gemessen in Distanz und so, dass man halt guckt,
0:28:45–0:28:50
sobald der Efeu schnell genug ist, dass wir ihn als Mensch sich bewegen sehen, dann,
0:28:50–0:28:53
gönnen wir ihm auf einmal, dass er auch mehr kann.
0:28:54–0:28:57
Dann haben wir ihn auch immer mehr lieb und sind ehrfürchtig.
Florian Clauß
0:28:59–0:29:05
Also mir ist jetzt grade nochmal eingefallen, dieses Modell von neuronaler Darwinismus,
0:29:05–0:29:06
was ich eben angesprochen habe.
0:29:06–0:29:12
Es ist die Theorie von Gary Edelman. Ganz viele Theorien sind auch so in den 40er,
0:29:13–0:29:23
50er, 60er und 80er und jetzt sind wir also auf so einer Materialreife und auch,
0:29:23–0:29:25
dass man halt so Sachen dann halt wirklich machen kann.
0:29:25–0:29:29
Das ist auch ganz interessant, weil die Theorie, Ansätze gibt es schon vorher
0:29:29–0:29:31
und darauf wird er sich berufen.
0:29:32–0:29:35
Aber jetzt ist es in so einer Reife, dass man es halt auch wirklich praktizieren kann.
0:29:36–0:29:40
Also einfach durch die Rechenkapazität und durch die ganzen Versuchsanordnungen.
0:29:41–0:29:47
Ja genau. Also unser Gehirn ist jetzt, funktioniert dann auch.
0:29:47–0:29:51
Es kommt auch immer wieder vor in so in vielen, in so Loops.
0:29:51–0:29:53
Ganz viel wird immer so durch gelobt.
0:29:54–0:29:58
Das ist dann halt wieder hoch kommt und wieder runter. Also das heißt es ist,
0:29:58–0:30:04
diese Parallelisierung und diese Lupen das gleichzeitige setzt weicht dann eben,
0:30:04–0:30:07
ab von so meinetwegen so Bild Stabilisierungsverfahren in so einer.
0:30:08–0:30:12
In so einem neuronalen Netzen, wo dann halt wirklich jedes einzelnen Bild betrachtet wird.
0:30:12–0:30:18
Also im Gehirn werden ja, so teile er dann Teil Probleme dann halt quasi behandelt.
0:30:18–0:30:22
Und dadurch bist du halt viel kleiner unterwegs. Das ist auch so!
0:30:23–0:30:27
Es gibt dann halt auch so ein Untersuchungsobjekt, so ein, so ein Wurm.
0:30:27–0:30:33
Der hat dann halt nur 309 Neuronen und der kann sich aber sinnvoll bewegen.
0:30:33–0:30:39
Aber kein kein Modell aus dem ganzen ML Bereich oder aus dem hat es geschafft
0:30:39–0:30:43
mit so einer Neuronenmenge überhaupt ein Bewegungsmuster zustande zu bekommen.
0:30:43–0:30:47
Das ist halt genau dieser Punkt, wo sich dann halt das wieder in so einer gewissen,
0:30:47–0:30:51
Quantität versus Qualität dann wieder zeigt.
0:30:51–0:30:55
Das heißt, der Ansatz funktioniert da nicht und das ist halt so und generell
0:30:55–0:30:59
kann man sagen, so mit dem Ansatz gibt es bestimmte Probleme,
0:30:59–0:31:03
also mit dem traditionellen Machine Learning Ansatz, aber es kann halt bestimmte,
0:31:03–0:31:06
biologische Patterns nicht abbilden, Da muss man.
Micz Flor
0:31:06–0:31:09
Da wäre ich jetzt also. Es würde mich interessieren, da nochmal genau rein zu
0:31:09–0:31:10
gucken. Natürlich ist ein.
0:31:11–0:31:18
Ähm also der Begriff Neuron auf biologischer Ebene oder der Begriff Neuron auf,
0:31:18–0:31:21
Machine Learning Ebene ist ja auch sehr unterschiedlich.
0:31:21–0:31:23
Also es ist ja so, dass du.
0:31:23–0:31:26
Du hast ja bei Neuronen im biologischen Raum, hast ja,
0:31:29–0:31:35
eine Kombination aus chemischen, also biochemischen und elektrischen Impulsen
0:31:35–0:31:37
oder Informationen, wenn man es so sagen möchte.
0:31:38–0:31:42
Und in den neuronalen Netzen, die sind ja sehr simplifiziert.
0:31:42–0:31:47
Oftmals gibt es dann schon so was wie Interneuron, also dass ein aktives Neuron
0:31:47–0:31:51
auch Neuronen hemmen kann. Muss nicht sein.
0:31:51–0:31:55
Die nebenan liegen, und zwar über die Anzahl der Synapsen. Die ist ja bei echten
0:31:55–0:31:57
Neuronen nicht festgelegt.
0:31:57–0:32:00
Es ist halt die Synapsenbildung. Die passiert ja dann irgendwie im.
Florian Clauß
0:32:00–0:32:03
Ja, das stimmt. Da muss man immer mal gucken, ob das jetzt so übertragbar ist.
0:32:03–0:32:07
War nur ein Beispiel dafür, dass es halt mit einer beschränkten Verknüpfungsanzahl,
0:32:08–0:32:14
also da brauche ich halt eine gewisse Menge wieder, um sinnvolle Patterns abbilden zu können.
Micz Flor
0:32:14–0:32:17
Und das ist auch so. Ich finde es total interessant, dass das,
0:32:17–0:32:20
was du sagst, eben wieder auf diese Menschenzentrierung,
0:32:21–0:32:25
es wird ja immer wieder auch im Dialog dann versucht zu schauen,
0:32:25–0:32:30
was könnte man denn von menschlichem Denken oder tierischen denken?
0:32:30–0:32:33
Was könnte man denn da noch lernen, um das zu verbessern? Und zum Beispiel diese
0:32:33–0:32:35
Schleifen, die im Gehirn passiert.
0:32:35–0:32:40
Das gibt es inzwischen auch in Deep Learning neuronalen Netzen zwischen einzelnen
0:32:40–0:32:43
Layern, die halt bestimmte Dinge machen und man merkt das halt.
0:32:44–0:32:50
Mit Schleife ist es sehr viel Energie aufwendiger, aber in manchen Aufgabenbereichen
0:32:50–0:32:54
dann sehr viel effektiver und man fängt es dann irgendwie an, so zu kombinieren.
0:32:55–0:32:59
Wenn du jetzt zum Beispiel vorstellst, du hast halt irgendwie ein Eichhörnchen,
0:32:59–0:33:03
das hört was, das Eichhörnchen schreckt auf und guckt dann hin und was ist das?
0:33:03–0:33:07
Und das ist ja, dann sind wir so zwei Systeme am Laufen, Das Hören alarmiert,
0:33:07–0:33:13
das Sehen, versucht dann zu erkennen und und ähnlich ist es dann auch in neuronalen
0:33:13–0:33:16
Netzen, dass du dann auf einmal so einen Trigger kriegst und sagst okay,
0:33:16–0:33:18
kuck hier noch mal hin, ist das das?
0:33:18–0:33:25
Ich kann dir quasi nur eine Warnung geben und das energieintensive System wird
0:33:25–0:33:30
erst angeworfen, wenn quasi so ein basales System eine Warnung gibt.
0:33:30–0:33:33
Ja, verstehst du? Ich meine, das heißt, diese diese Art und Weise,
0:33:33–0:33:39
wie Biologie funktioniert, das färbt auch immer wieder in das Machine Learning
0:33:39–0:33:43
natürlich hinein, was natürlich aber dann auch immer noch in sich trägt,
0:33:43–0:33:45
dass es darum geht, so eine Art.
0:33:47–0:33:50
Menschliches Sein zu entwickeln. Also das ist ja irgendwie das,
0:33:51–0:33:52
wo ich da manchmal denke,
0:33:52–0:33:55
vielleicht muss es ja nicht sein wie wir, sondern es muss einfach nur besser
0:33:55–0:34:02
sein als wir Und dadurch kann es dann wirklich spezialisiert auf bestimmte Bereiche perfektionieren.
0:34:03–0:34:08
Weil Taschenrechner kann schneller rechnen als wir, aber ist insgesamt wirklich
0:34:08–0:34:10
ein dummes Objekt, aber er kann bestimmte Sachen, die wir nicht.
Florian Clauß
0:34:11–0:34:14
Also zum Beispiel ist es so, dass es auch sehr aufwendig ist,
0:34:14–0:34:18
in so einem neuronalen Netz dann quasi eine gewisse Arithmetik beizubringen.
0:34:18–0:34:22
Nein, die Rechenoperationen, weil du hast für jedes einzelne Ding dann halt,
0:34:23–0:34:27
durchexerzieren musst wären da kann ich auch wieder nur aus auf Aussagen mich
0:34:27–0:34:29
beziehen die ich da in dem Vortrag gehört habe.
0:34:29–0:34:34
Es ist so, dass du halt in so einem biologischen System dann halt quasi,
0:34:34–0:34:40
wenn du da eine Arithmetik installiert hast, dass das dann halt quasi weitergegeben
0:34:40–0:34:43
wird von Neuronen zu Neuronen, ohne dass die neu trainiert werden müssen.
0:34:44–0:34:48
Also das heißt, da gibt es halt so einen Fluss von Information,
0:34:48–0:34:52
der dann halt nicht wieder so alles aufbereiten und so.
0:34:52–0:34:58
Und die andere Sache ist auch wie. Also das, was man halt.
0:34:59–0:35:04
Generell, wie sich die Welt quasi abbildet in biologischen Systemen,
0:35:04–0:35:08
so dass du auf Veränderungen reagierst. Also es geht darum, dass du halt.
0:35:09–0:35:15
Also dass Veränderung dieses Lernen in so einem neuronalen Netz ist dann halt
0:35:15–0:35:17
wirklich wieder so Frame basiert.
0:35:17–0:35:22
Einzelbilder ja, aber es wird nicht so sehr diese Veränderung über diese Frames,
0:35:22–0:35:25
gemacht, sondern es ist dann halt in so biologischen Systemen.
0:35:25–0:35:29
Beispiel Katze in die Katze kann halt einen Ball nicht erkennen.
0:35:29–0:35:32
Erst wenn er in Bewegung ist, erkennt er den und und das, was dann halt wieder
0:35:32–0:35:36
Joscha Bach dann wieder so auffaltet wir diese Berechenbarkeit.
0:35:36–0:35:42
Das heißt in dem Moment, wenn er jetzt in einem in einem Raum Sachen sich dann
0:35:42–0:35:45
halt nur ganz wenig bewegen.
0:35:45–0:35:50
Es geht immer um diese Degree nicht abweichen und das hat dann der Michael Lewin
0:35:50–0:35:53
hat mir mal bestätigt, dass mit Neuronen dass die halt auch nicht an so einer,
0:35:54–0:35:58
an so einem Grundimpuls die braucht halt halt die müssen nicht so sondern die
0:35:58–0:36:00
reagieren also das ist auch so die neuere Forschung,
0:36:01–0:36:06
die in Neuronen also neuronale Zellen jetzt reagieren dann quasi nur auf so
0:36:06–0:36:11
minimale Spannungsdifferenzen das sind die eigentlichen Trigger für bestimmte
0:36:11–0:36:14
Sachen und nicht mehr diese expliziten Spannungsdifferenzen.
0:36:15–0:36:20
Und da wo dann halt so ein, wo sich dann halt dass quasi die Veränderung in
0:36:20–0:36:27
einem in einem wahrgenommenen in einer wahrgenommenen Umgebung dann fängst du an halt zu.
0:36:27–0:36:32
Sehen das ist ein Objekt und das hat diese Feature und und diese Feature kannst
0:36:32–0:36:37
du quasi aus dem Zusammenhang erschließen und die werden dann halt quasi in
0:36:37–0:36:41
dem Moment, wenn sich das bewegt, ohne dass jetzt jemand quasi der trainiert,
0:36:41–0:36:46
Netzwerk wo dann sagst du das ist ein Stuhl, sondern das ist jetzt es wird auf
0:36:46–0:36:48
einmal zum Stuhl, weil es in der Bewegung,
0:36:49–0:36:52
die genau diese Features eines Stuhls dann zeigt,
0:36:53–0:36:57
und das ist halt auch so so funktionieren lernende biologische Systeme und das
0:36:57–0:37:01
ist mal auch so ein fundamentaler Unterschied, dass wir also dass mehr auf diese
0:37:01–0:37:05
Veränderung und alles, was sich nicht bewegt und nicht verändert,
0:37:05–0:37:06
ist erstmal uninteressant.
Micz Flor
0:37:06–0:37:13
Ja, das ist ja sogar so, das kennt man ja, diese ganzen Grundschulen,
0:37:13–0:37:18
da kennt man ja diese ganzen Grundschulsachen, wo man halt lange auf dem Bild
0:37:18–0:37:20
draufguckt und dann verschwindet der Punkt.
0:37:20–0:37:25
Das heißt, unsere auch auf einer biologischen Ebene, gar nicht auf einer kognitiven,
0:37:25–0:37:27
sondern eine wirklich in den Zellen im Auge. Es ist ja so angelegt,
0:37:27–0:37:32
wenn wir lange auf einen Punkt gucken, dann wird alles andere gleich.
0:37:33–0:37:36
Das heißt, wir sehen dann wir. Im Prinzip tendieren wir dazu,
0:37:36–0:37:37
daraus ein weißes Feld zu machen.
0:37:37–0:37:43
Das sind nur die Unterschiede, die wir wirklich wahrnehmen. Und das haben wir
0:37:43–0:37:48
ja dann auch eben gesehen bei MP3 oder bei MPEGVideokodierung.
0:37:48–0:37:53
Das halt große Flächen werden halt irgendwie nicht so detailliert ausgerechnet,
0:37:53–0:37:57
sondern die werden halt versucht im Sinne der Datenübertragung flach zu halten,
0:37:57–0:38:00
während so was wie ein Gesicht oder wo viele Kontraste sind.
0:38:01–0:38:05
Da gehen wir halt rein und das ist wiederum was, was jetzt nicht neu ist,
0:38:05–0:38:10
sondern es war früher schon immer so, dass bei berühmten Malern,
0:38:10–0:38:14
hauptsächlich Malern, Maler innen, später aber dass man da.
0:38:15–0:38:20
Auch das so gemacht hat, dass das Bild wurde gemalt von irgendeinem Gesellen
0:38:20–0:38:24
oder so, und dann wurden halt die Hände und das Gesicht. Da hat der Meister
0:38:24–0:38:25
dann auch Hand angelegt.
0:38:25–0:38:30
Und das ist ja nicht viel anders als das, was man heute mit Algorithmen macht,
0:38:30–0:38:34
um halt die Daten besser durch das Internet zu schieben, dass man halt auf das,
0:38:34–0:38:37
was früher der Meister der Malschule,
0:38:38–0:38:40
betont hat, das ist auch das, was heute die Algorithmen tun.
Florian Clauß
0:38:43–0:38:50
Die Frage ist. Diese einzelnen Zellen, die oder auch im Verband,
0:38:51–0:38:54
die reagieren auf Umwelt, auf Umwelt ein.
0:38:54–0:38:57
Und die Frage ist wie? Also wie?
0:38:58–0:39:03
Woher kommt quasi die Information, dass das, wie sie reagiert haben, auch sinnvoll war?
0:39:03–0:39:07
Also da geht es so ein bisschen dieses übergeordnete Ziel wurde erreicht.
0:39:08–0:39:12
Ist es dann als quasi fulfilling ja oder nicht?
0:39:12–0:39:15
Also das heißt es muss hier ein System irgendwo implementiert sein,
0:39:15–0:39:20
das einen gewissen Feedbackschleife erlaubt und diese und und dann kommt man wieder zu diesem.
Micz Flor
0:39:18–0:39:18
Hm.
Florian Clauß
0:39:21–0:39:28
Quasi belohnungsgetriebenen System, das heißt, es gibt tatsächlich im biologischen,
0:39:28–0:39:33
Organismen dann halt so, so eine Sprache der Belohnung und die Belohnung sieht
0:39:33–0:39:36
dann nicht so aus, dass einer von oben sagt Ey, das hast du super gemacht,
0:39:36–0:39:37
du kriegst jetzt irgendwie so,
0:39:38–0:39:43
weil ich ein paar Glukose Glukose Moleküle mehr,
0:39:44–0:39:50
sondern es wird auch dann hier wieder in so einer in so ne in so ein quasi so,
0:39:50–0:39:54
ein Verband reagiert das heißt die benachbarten Zellen,
0:39:55–0:40:01
geben dann Feedback, das heißt, da wird wieder auch so quasi in so einem von
0:40:01–0:40:04
unten dann halt belohnt, dass die dann sagen ja.
0:40:04–0:40:09
Hast du gut gemacht, also das ist halt so dieses Ding, das ist halt auch wieder
0:40:09–0:40:15
so embedded, ist so ein bisschen wie bei dem Ameisenstaat, wo dann halt eine Ameise dann halt quasi,
0:40:16–0:40:21
schaffen kann, ein komplettes Volk umzuerziehen, indem sie andere überzeugt.
0:40:21–0:40:25
So, das ist halt so, dieses, das ist halt auch so diese kollektive Intelligenz,
0:40:26–0:40:29
wo fängt, wo fängt denn die einzelne,
0:40:30–0:40:38
Einzelne, die einzelne Entität in einem System dann quasi das ganze System quasi mit beeinflussen kann?
0:40:38–0:40:42
Das ist halt so ganz spannend einfach an dieser Stelle.
Micz Flor
0:40:42–0:40:47
Ja, ja, ja, das ist ja auch dieses es ist, glaube ich, auch ein großes Thema
0:40:47–0:40:50
in der Biologie. Was nicht ganz geklärt ist, ist halt, wenn zum Beispiel ein
0:40:50–0:40:55
großer Organismus stirbt, dass kleine Zellen dann auch sterben.
0:40:56–0:41:01
Also das muss ja nicht unbedingt sein, aber dass es da nicht ganz klar ist,
0:41:01–0:41:05
wie der Zusammenhang zwischen Einzellern in unserem.
0:41:05–0:41:08
Also ich meine, dass keine Bakterien im Magen Darm Trakt, sondern wirklich Teil,
0:41:08–0:41:13
unserer Körperzellen, dass die dann auch ein Signal bekommen.
0:41:13–0:41:15
Oder warum müssen die dann alle sterben?
Florian Clauß
0:41:15–0:41:21
Ja, ja, das ist. Genau. Das ist, wie Informationsübertragung läuft.
0:41:22–0:41:27
Und das dann in so einer ganz zellulären Ebene.
0:41:27–0:41:34
Ich glaube, das ist so soweit zu dem Teil, den Joscha Bach in diesem Vortrag dann ausgebreitet hat.
0:41:34–0:41:42
Ich würde jetzt gerne ein zweites im zweiten Teil dann über eigentlich ja na.
Micz Flor
0:41:39–0:41:41
Das ist der eigentliche Teil, oder im.
Florian Clauß
0:41:42–0:41:48
Ja, mal gucken was eigentlich zweiten Teil über Michael Lewines Präsentation.
0:41:49–0:41:56
Also was Michael Lewin da auch eben so als als so ein so ein Paradigmenwechsel
0:41:56–0:41:58
dann auch in seinem Vortrag vorangestellt hat.
0:41:58–0:42:01
Das ist einfach die Frage wie. Wie man jetzt auch so eine,
0:42:04–0:42:07
typisch menschliche Sichtweise dann so ein bisschen verliert und dann guckt,
0:42:08–0:42:13
eben, was ich schon gesagt habe, wo Intelligenz überall quasi verankert ist
0:42:13–0:42:15
und wie andere Systeme auch funktionieren.
0:42:16–0:42:20
Ein Beispiel. Das fand ich also ganz interessant. Wir sind halt total auf so,
0:42:20–0:42:27
sehen und Erleben im dreidimensionalen Raum da ausgelegt,
0:42:28–0:42:32
aber können entsprechend halt unglaublich visuell gut auflösen.
0:42:33–0:42:35
Aber wenn wir jetzt zum Beispiel,
0:42:37–0:42:42
das Vermögen hätten, die chemische Zusammensetzung unseres Blutes wahrzunehmen,
0:42:43–0:42:47
also wenn wir das als Wahrnehmungsorgan hätten, na denn, dann wären wir halt eine Leber,
0:42:49–0:42:55
mit ner Leber oder ein Märchen.
Micz Flor
0:42:50–0:42:51
Ein Lebewesen,
0:42:54–0:42:54
oder?
Florian Clauß
0:42:56–0:43:01
Also das wäre also. Also das heißt, es gibt, es gibt diese zellulären,
0:43:03–0:43:09
Organismen, Ja, sie sind, aber sie sind quasi da, aber es ist. Sie sind vorhanden.
Micz Flor
0:43:03–0:43:05
Es gibt die Rezeptoren, sie sind uns aber nicht.
Florian Clauß
0:43:10–0:43:14
Ja, aber das finde ich auch so einen ganz guten Gedanken Kniff.
0:43:14–0:43:21
Wenn man jetzt wirklich so, dass man sich überlegt, das ist schon echt interessant
0:43:21–0:43:26
und dann erschließen sich dann halt auch quasi neue Felder und ich glaube, das ist halt so das, was,
0:43:27–0:43:30
das Team von Michael Lewin und die wollen,
0:43:31–0:43:37
unterschiedliche so ein Framework entwickeln, um halt auch so Intelligenzformen
0:43:37–0:43:44
quasi in der Natur dann halt einzuteilen oder oder zu nutzbar zu machen,
0:43:45–0:43:51
die da jetzt auch nicht so quasi so sinnfällig, denn die nicht gleich ins Auge
0:43:51–0:43:58
springen, sondern die dann erst mal dann überhaupt erschlossen werden müssen als Systeme dafür.
0:44:00–0:44:05
Und der ganz, der kommt stark aus diesem Morphologie Bereich.
0:44:06–0:44:11
Also es ist ganz viel in seinen Experimenten auch mit morphologischen Prozessen,
0:44:11–0:44:18
also Morphologie wo quasi die Natur vom Bauplan wie sich dann Zellen in bestimmte,
0:44:19–0:44:21
Strukturen ordnen das ist.
0:44:21–0:44:27
Er bringt dann ein Beispiel was dann halt auch so was dann auch sehr prägend
0:44:27–0:44:33
ist für seine Arbeit, nämlich die Metamorphose von einem Schmetterling,
0:44:33–0:44:38
also von einer Raupe, die halt eigentlich nur so ein blattfressender Roboter
0:44:38–0:44:41
ist, der mehr oder weniger in so einem 2D Raum.
0:44:41–0:44:47
Also das heißt ist ja gebunden an an ein Blatt und Schwerkraft.
0:44:48–0:44:54
Und in der Metamorphose entwickelt sich dann ein Schmetterling,
0:44:56–0:44:58
der dann Blüten, Blüten, Nektar,
0:44:58–0:45:02
schlürft, der dann auch eine ganz andere Future Seed hat. Der, der dann.
Micz Flor
0:45:02–0:45:06
Raupe ist. Die Blätter. Der Schmetterling schlürft direkt.
0:45:07–0:45:10
Okay, das ist auch wieder eine menschliche Deutung. Aber ich weiß, was du meinst.
0:45:10–0:45:12
Also diese Transformation von der Raupe in den Schmetterling.
0:45:12–0:45:16
Zwei Tiere, die man wahrscheinlich lange Zeit gar nicht als zusammenhängend
0:45:16–0:45:18
wahrgenommen hat. Es gibt Raupen, es gibt Schmetterlinge.
Florian Clauß
0:45:19–0:45:22
Also auch, dass dann Flügel entwickelt werden und werde.
0:45:22–0:45:26
Aber das Eigentliche, was dann noch mal so in der Beobachtung interessant ist,
0:45:26–0:45:30
ist das halt während der Metamorphose sehe ich das komplette Tier auflöst,
0:45:30–0:45:33
das heißt da wo man dann Raupen gehören war, da ist halt nix,
0:45:33–0:45:35
sondern das setzt sich dann neu zusammen.
0:45:36–0:45:41
Also es gibt alle, ganze, die ganze Struktur des dieses Prozess,
0:45:41–0:45:48
der wirklich das Imago ist, also des Tieres, das setzt sich halt völlig neu zusammen.
0:45:48–0:45:50
Aber es gibt ein Gedächtnis Zellen.
0:45:50–0:45:55
Also das heißt du kannst Raupen trainieren auf bestimmte Sachen und die Erinnerung
0:45:55–0:45:57
findet sich dann wieder im Schmetterling.
0:45:57–0:46:00
Und dann ist die Frage, wo ist Erinnerung gespeichert.
0:46:00–0:46:04
Wie kann so eine Gedächtniszelle dann, wie kann ein Gedächtnis funktionieren,
0:46:04–0:46:09
Und man denkt dann halt und das ist dann auch wieder so ein so ein altes Paradigma.
0:46:09–0:46:12
Man denkt halt irgendwie, Gedächtnis ist im Kopf aufgehoben,
0:46:12–0:46:18
im Gehirn, das ist, das speichert das Gedächtnis, aber es geht viel tiefer, es gibt halt,
0:46:19–0:46:23
es geht halt irgendwie auf, auf eben, auf so einer zellulären Ebene dann auch,
0:46:24–0:46:28
Gedächtnisfunktionen und dann ein Beispiel, über das wir uns auch schon unterhalten
0:46:28–0:46:30
haben, ist halt auch diese.
0:46:32–0:46:35
Also so ein Gehirn muss nicht.
0:46:35–0:46:39
Also ein Gedächtnis muss nicht im Gehirn passieren, sondern es kann auch in
0:46:39–0:46:40
einer Zelle sein. Es kann.
0:46:41–0:46:44
Jetzt kommt dieses Schleimpilz Beispiel.
0:46:44–0:46:51
Das ist auch ein Gedächtnis. Also im Prinzip der Schleimpilz ist halt eine Zelle,
0:46:52–0:46:57
agiert aber wie ein vielzelliges, vielzähliger Organismus.
0:46:57–0:47:03
Da gibt es eine Versuchsanordnung, wo dann der Schleimpilz in einer Petrischale
0:47:03–0:47:08
in der Mitte ausgesetzt wird und erst mal so eine kleine Zelle ist und dann ist er am Rand.
0:47:08–0:47:13
Sind dann halt mehrere Futterstellen und dann wird halt beobachtet, was passiert in.
0:47:14–0:47:17
Was passiert in den ersten Stunden? Dann siehst du halt, dass dieser Schleimpilz
0:47:17–0:47:20
sich hier in alle Richtungen quasi ausbreitet. Gleichmäßig.
0:47:20–0:47:26
Und dann kriegt er halt mit. Und zwar kriegt er das halt über Vibrationen,
0:47:26–0:47:31
die er dann halt quasi über den Boden auslöst, kriegt er dann halt mit, wo dann,
0:47:32–0:47:37
Futterquellen räsonieren und dann wächst er gezielt zu dieser Futterquelle hin.
0:47:38–0:47:44
Also ein höchst intelligentes Verhalten macht halt eine Zelle.
0:47:44–0:47:47
Also das heißt, auch hier ist diese.
0:47:50–0:47:53
Diese Fähigkeit einer Zelle.
0:47:54–0:47:58
Ja, ist halt so, ist halt immens.
0:47:58–0:48:02
Und wenn man sich überlegt, dass der Mensch aus so und so viel Zellen zusammengebaut
0:48:02–0:48:05
ist, die alle, aber auch so eine, so eine Fähigkeit irgendwo mit sich in sich
0:48:05–0:48:11
tragen, Er ist dann halt die, die diese diese Menge dann halt auch extremst,
0:48:12–0:48:18
effektiv und und dann heißt das nur nochmal so dagegengehalten.
0:48:19–0:48:24
Also so ein multitiluläres Wesen und ich meine, eine Zelle kann dann halt aus.
0:48:24–0:48:28
Dann ist es halt irgendwie so und so ein Neuron hat natürlich das Feature,
0:48:28–0:48:32
dass es halt nur ein Axiom hat als Übertragungsweg.
0:48:32–0:48:37
Aber der Schleimpilz hat ja auch quasi so eine Art von Gehirnaktivität,
0:48:37–0:48:45
in dem man dann halt anfängt, da halt auch solche Gänge zu legen und so Entscheidungen zu treffen usw..
Micz Flor
0:48:45–0:48:48
Ja, zumindest von außen betrachtet ist es so, dass beim Schleimpilz,
0:48:48–0:48:51
der kann ja sogar in einem Labyrinth sich ausbreiten, den kürzesten Weg finden,
0:48:52–0:48:57
zwischen zwei Futterstellen im Labyrinth. Und das ist dann von außen betrachtet
0:48:57–0:48:58
eben wirklich auch so ein Dilemma.
0:48:58–0:49:03
Ist das jetzt schon eine intelligente Lösung? Weil das ist nicht trivial und gleichzeitig.
Florian Clauß
0:49:02–0:49:06
Jenny. Es ist intelligent. Es ist auf jeden Fall. Das ist genau dieses Ding.
0:49:06–0:49:11
Es ist eine intelligente. Aber die Frage ist für mich jetzt auch noch nicht so ganz klar.
0:49:11–0:49:15
Wo fängt das Bewusstsein an? Das ist die Frage nach Bewusstsein.
0:49:15–0:49:19
Das wäre nochmal so die nächste Sache, ob sich das so differenziert?
0:49:20–0:49:22
Was ist der Unterschied zwischen Intelligenz und Bewusstsein?
0:49:23–0:49:28
Und ist Intelligenz gleich Bewusstsein oder kann sich das halt auch irgendwie,
0:49:28–0:49:30
unterschiedlich ausprägen?
0:49:33–0:49:39
Und die andere Sache, die ist diese Sache von.
0:49:39–0:49:43
Auch so ein Paradigma. Man sieht sich als individuelles Wesen.
0:49:44–0:49:54
Und wenn man aber schaut, wie der, wie jetzt auch der Mensch entsteht oder alle meinetwegen,
0:49:55–0:50:00
quasi Tiere oder Organismen, die Geld aus so einem Plastoderm also das ist im
0:50:00–0:50:06
Prinzip diese Schicht von von Zellen, die sich kurz nach der Befruchtung dann quasi so.
0:50:07–0:50:11
Strukturieren und dann sind da auch diese Versuche kennt man ja auch.
0:50:11–0:50:17
Das Blastoderm wird dann halt quasi so geschädigt geschnitten an eine gewisse,
0:50:17–0:50:24
und dann ist diese Teile, die dann entstehen, die sind, aber die werden zu vollwertigen Organismen.
0:50:24–0:50:29
Das heißt, dann gibt es halt so einen Bereich, der dann halt so sich dann halt
0:50:29–0:50:31
von den anderen löst aber gleichzeitig.
0:50:32–0:50:38
Also dann wird halt aus dem einen angelegten werden dann meinetwegen drei Teile,
0:50:39–0:50:41
und daraus entwickeln sich drei Individuen.
0:50:42–0:50:46
Woher kommt das also? Also das eine war ja vorher, es wäre eins geworden.
0:50:46–0:50:50
Wenn ich dann. Also na das ist auch so, und woher wissen die Zellen,
0:50:50–0:50:55
dass die jetzt quasi an der Stelle verletzt wurden und sich jetzt dann nochmal,
0:50:55–0:50:59
diesen Prozess quasi beschleunigen oder anders nochmal gestalten,
0:50:59–0:51:01
um dann wieder so ein Individuum zu bekommen.
0:51:02–0:51:05
Das sind auch wieder so morphologische Sachen, die dahinter stehen.
0:51:05–0:51:11
Das ist ja auch so diese Vorstellung von Individualität, von Ontogenese usw.
0:51:11–0:51:16
Das ist ja auch so überholt sich dann in dem Moment und darüber hat auch übrigens
0:51:16–0:51:23
dann Alan Turing auch ein Paper geschrieben 1953 über die Morphogenese,
0:51:24–0:51:29
nämlich dass die Problemlösung bei lebenden Maschinen, dass die die Intelligenz
0:51:29–0:51:31
haben, sich neu zu programmieren, so eine Plastizität halt.
0:51:32–0:51:35
Das fand ich auch nochmal interessant. Ist dann halt wieder so diese ganzen,
0:51:35–0:51:40
Computer Scientists dann halt da in diese diese Ecke dann auch gehen.
Micz Flor
0:51:42–0:51:44
Das wusste ich auch nicht, dass Turing da schon,
0:51:46–0:51:48
sich buchstäblich einen Kopf gemacht hat.
Florian Clauß
0:51:49–0:51:55
Und wenn man auf dieser auf dieser ganz kleinen, niedrigen Ebene bleibt.
0:51:58–0:52:03
Also wenn du guckst, es gibt halt irgendwie, was ist Leben, dann ist halt so
0:52:03–0:52:07
eine gewisse chemische Reaktion, die dann so stattfindet, ne,
0:52:07–0:52:11
aber wo ist dann der Sprung zur Zelle und wo ist denn dann der Sprung?
0:52:11–0:52:13
Dann halt quasi zum Organismus?
0:52:13–0:52:18
Naja, das ist ja so fließend, es ist ja nicht so auf einmal ist.
Micz Flor
0:52:15–0:52:16
Es ist ja nicht so!
Florian Clauß
0:52:18–0:52:21
Ich weiß, also vorher war es das und jetzt ist es Leben.
0:52:21–0:52:26
Sondern es ist halt ein ganz fließender Übergang und das ist glaube ich auch
0:52:26–0:52:30
so ein Ding, was, womit man sich anfreunden muss, das ist halt nicht irgendwie
0:52:30–0:52:34
das Eine ist, das Eine ist noch nicht und das andere wird aber,
0:52:35–0:52:37
dass man da nicht so dualistisch denkt.
Micz Flor
0:52:38–0:52:41
Ich finde das auch so ein Bereich, wo es ganz schön windig. Ich finde es ist
0:52:41–0:52:46
auch so ein Bereich, wo ich weiß gar nicht wie die wie das heißen würde in der Forschung.
0:52:46–0:52:51
Aber das ist ja irgendwie das Paradoxe ste, was wir eigentlich im Universum
0:52:51–0:52:54
gerade so erleben, ist ja, wir haben einerseits diese Entropie,
0:52:54–0:52:59
alles tendiert zur Unordnung und gleichzeitig ist es aber so,
0:52:59–0:53:01
dass wir, wie du schon gesagt hast,
0:53:01–0:53:08
in jedem einzelnen Wesen entsteht Aus einer Einzeller entsteht ein Mehrzeller, entsteht ein Mensch.
0:53:09–0:53:14
Das heißt, da wird ja nicht Entropie sichtbar, sondern das Gegenteil.
0:53:14–0:53:17
Da wird ja Ordnung sichtbar, höchste Ordnung. Also das ist das ganz Kleine.
0:53:17–0:53:24
Schafft es irgendwie irgendwas zwischen 70 und 100 Kilo Lebendgewicht herzustellen.
0:53:24–0:53:29
Und das ist ja irgendwie absurd und entspricht dem Gegenteil dessen,
0:53:29–0:53:33
was wir immer irgendwie eigentlich annehmen mussten, nämlich dass alles zur
0:53:33–0:53:36
Unordnung hin tendiert. Weil Ordnung braucht immer mehr Energie als Unordnung.
0:53:36–0:53:41
Das heißt, in unserem ganzen Wachstumsprozess muss es irgendwie Mechanismen
0:53:41–0:53:47
geben, wo das Kleine das Größere beeinflusst und nicht das Große, das Kleine.
0:53:47–0:53:52
Die große Billardkugel ist immer mächtiger als die Kleine, aber in jeder einzelnen,
0:53:52–0:53:55
in jedem Menschen, in jedem Tier, in jeder Pflanze, in jedem Moment.
0:53:55–0:54:00
Wenn halt Leben da ist, wird gezeigt, dass es möglich ist, dass das kleine.
0:54:00–0:54:07
Entgegen der Daumenregel von Chaos siegt Ordnung herstellen kann.
0:54:07–0:54:11
Und das finde ich irgendwie irre. Und das passiert ja auf einer molekularen
0:54:11–0:54:14
Ebene, auf einer, auf einer physikalischen, chemischen Ebene.
Florian Clauß
0:54:15–0:54:17
Genau das ist ja dann wieder also die Frage, ist halt irgendwie so..
0:54:18–0:54:24
Ich meine, so eine Turingzellorganismus ist im Prinzip eine Wirkung gegen die Entropie Entropie.
0:54:25–0:54:28
Weil du hast ein Programm, was dann halt sich wieder ordnet.
0:54:28–0:54:31
Das ist der Algorithmus, macht dann Ordnung.
Micz Flor
0:54:32–0:54:36
Und es ist ja auch schon so, dass die versucht man ja irgendwie herzustellen.
0:54:36–0:54:41
Da gibt es ja die Theorien, dass das Leben hier quasi als als Samen oder sieht
0:54:41–0:54:44
irgendwie aus dem Weltraum kam oder ist es hier entstanden.
0:54:44–0:54:48
Dann hat man die Ursuppe von früher hergestellt und Blitze rein schießen lassen
0:54:48–0:54:52
und gemerkt, dass ich da wirklich relativ schnell auch komplexere Moleküle bilden,
0:54:52–0:54:54
die als Vorstufen für Aminosäureketten dienen könnten.
0:54:54–0:55:00
Und Aminosäure Ketten sind dann wiederum Vorstufe von von biochemischen und
0:55:00–0:55:01
dann biologischen Leben.
0:55:01–0:55:05
Und trotzdem sind natürlich diese ganzen Sprünge nicht wirklich geklärt.
0:55:05–0:55:11
Aber wenn man sich das bildlich vorstellt, dann hat man natürlich diese Idee von dieser Ursuppe.
0:55:11–0:55:16
Da gab es noch gar keine Atmosphäre, überall Lava und Zeug und Salze und alles
0:55:16–0:55:20
mögliche und dann hauen die Blitze rein und da hat man ja so einen.
0:55:21–0:55:28
So, so titanenmäßig. Also da sind. Da sind, ähm, energetische Kräfte am Wirken
0:55:28–0:55:33
auf die Materie, dass man sich gut vorstellen kann, dass die ein höheres Komplexitäts.
0:55:33–0:55:36
Also die springen dann eben auf eine höhere Ebene und.
Florian Clauß
0:55:35–0:55:39
Ja eben, genau. Und dieser Sprung ist vielleicht gar nicht so ein Sprung.
Micz Flor
0:55:40–0:55:44
Und dann später wird es aber eben so in diesem Leben, wo dann?
0:55:44–0:55:48
Und dann kommt eben vielleicht wirklich die Quantenmechanik damit rein,
0:55:48–0:55:52
ohne dass wir einen Designer haben. Aber diese Idee, dass auf einmal es möglich
0:55:52–0:55:58
ist, solche Komplexitätssprünge herzustellen, ohne wirklich.
0:55:59–0:56:03
Also wenn du dir vorstellst, so ein Kind im Mutterbauch entsteht,
0:56:04–0:56:08
dass es da so komplett wächst Und natürlich, die Frau ist mehr,
0:56:08–0:56:12
die Frau ist vielleicht mehr erschöpft, muss ab und zu kotzen und wie auch immer.
0:56:12–0:56:15
Das heißt, da passieren natürlich Dinge um dieses Generation,
0:56:15–0:56:20
aber es ist unvorstellbar, wenn wir in so einer reinen,
0:56:22–0:56:25
Werkbank Idee rechnen. Wie könnte man das so herstellen?
0:56:26–0:56:29
Und irgendwie ist es dann trotzdem halt möglich. Und das finde ich halt so spannend.
0:56:29–0:56:33
Diese Ursuppe mit dem Blitzen ist so archaisch und voller Energie und dann entsteht
0:56:33–0:56:41
fast nebenbei und wie selbstverständlich so ein komplexes Gebilde wie ein Baby über neun Monate.
Florian Clauß
0:56:41–0:56:47
Was du beschreibst und das ist auch mir nochmal bei diesem Vortrag so bewusst geworden.
0:56:47–0:56:52
Diese Rolle von Morphologie, also wie, was,
0:56:52–0:57:00
wie eine Gestaltgestaltsbildung in der Biologie funktioniert und das ist,
0:57:00–0:57:02
das ist so, dass also wie gesagt, das ist so das,
0:57:02–0:57:07
Thema von von Michael Lewin und das Lieblingstier was ich dann halt auch in
0:57:07–0:57:09
den ganzen Versuchen dann so als ein,
0:57:10–0:57:15
Tier dann halt gezeigt hat was sehr resistent ist und womit die alles mögliche
0:57:15–0:57:16
angestellt haben, ist dieses,
0:57:17–0:57:19
Level in eine.
0:57:22–0:57:22
Platz.
Micz Flor
0:57:22–0:57:23
Aber für.
Florian Clauß
0:57:24–0:57:32
Für Merian, Planetarien, Planeten, Planetarien, Planetarien, Kanarienmäuse.
0:57:32–0:57:40
Planetarien sind so ein Strudelwurm, eine Wurmart und der zeichnet sich dadurch aus.
0:57:40–0:57:44
Das haben die dann jetzt in einem anderen Interview nochmal so ein bisschen,
0:57:44–0:57:51
detailliert erläutert, dass der im Prinzip total vermurkstes Genom hat.
0:57:51–0:57:57
Also das der hat halt irgendwie so, das hat sich halt, das ist auch so eine,
0:57:57–0:58:01
klassische Vorstellung von der Biologie, das heißt, du hast ein sauberes Genom,
0:58:01–0:58:04
das wird dann halt durch Selektionen weitergegeben.
0:58:04–0:58:07
Wenn du ein gutes Genom hast, dann über geht das, dann, ja, dann geht das halt
0:58:07–0:58:12
durch die Generation und das wird in der Selektion bevorzugt behandelt. Aber der hat halt so ein.
Micz Flor
0:58:12–0:58:15
Ganz kurz ein Marker setzen, weil das ist ja genau diese Turingmaschine Sache,
0:58:15–0:58:16
die du vorhin gesagt hast.
0:58:16–0:58:22
Man hat ja immer gedacht, das Genom ist das Programm, das Genom ist das Programm.
0:58:22–0:58:27
Und wenn man das Genom entschlüsselt hat, dann hat man den Code verstanden und dann entsteht Leben.
0:58:30–0:58:34
Okay. Drüben lebt auch was vor sich hin und hupt.
0:58:36–0:58:41
Und diese Idee, dass alles im Genom als Programm gespeichert ist,
0:58:41–0:58:45
das zeigt sich in manchen Fällen. Dass das nicht so ist.
Florian Clauß
0:58:45–0:58:46
Genau. Genau.
Micz Flor
0:58:47–0:58:49
Und dass das Genom manchmal einfach eine Müllhalde ist.
Florian Clauß
0:58:49–0:58:53
Genau. Und das ist halt so völlig Messie Genom.
0:58:53–0:58:57
Da sind halt irgendwie mal da so ein paar Paar Chromosomen und dann irgendwie,
0:58:57–0:59:00
ist das auch völlig verstreut und,
0:59:02–0:59:07
die hat aber das ist das Lebewesen, was quasi unsterblich ist,
0:59:07–0:59:11
was unauffällig anfällig gegen Krebs ist, was dann halt,
0:59:11–0:59:16
eine unglaubliche Agilität hat und eine extreme Anpassungsfähigkeit,
0:59:16–0:59:19
was kein anderes Lebewesen hat.
0:59:19–0:59:24
Und da kann man die Theorie, wie kann das dann wie kennen? Wie kann sich das entwickeln?
0:59:24–0:59:31
Ist nämlich, dass sie quasi wie so oft so einer defekten Hardware sich dann
0:59:31–0:59:35
halt weil sie so auch wieder so ein Bild von Joscha Bach auf dieser Hardware
0:59:35–0:59:37
wo dann halt diese neu sie,
0:59:37–0:59:42
hat es die ganze Zeit durchläuft und halt Fehler beim Kopieren macht egal.
0:59:42–0:59:47
Aber dann sitzt halt so eine prozessuale Schicht obendrauf, die halt immer diese
0:59:47–0:59:50
Fehlerkorrekturen macht und damit viel effektiver ist.
0:59:50–0:59:53
Und dann gibt es halt einen neuen Begriff, den die einführen.
0:59:53–0:59:59
Nämlich den der Kompetenz, also Kompetenz, Kompetenz, was dann halt auch ein
0:59:59–1:00:01
Selektionsmerkmal dann werden kann.
1:00:01–1:00:05
Das heißt, das Tier, was am kompetentesten ist ist, kann auch entsprechend dann
1:00:05–1:00:11
halt ausgetauscht oder es kann halt in einer Umgebung besser überleben.
Micz Flor
1:00:12–1:00:17
Aber jetzt ganz kurz noch mal eine Frage zu dieser Analogie mit der Maschine.
1:00:17–1:00:26
Das heißt, dieser Wurm hat einfach nur schrottige Hardware und hat aber alles
1:00:26–1:00:28
im Rahmen. Oder wie ist das also?
Florian Clauß
1:00:28–1:00:32
Ja, genau. Äh, meinetwegen. Äh, dann, wenn du das jetzt so übertragen.
1:00:32–1:00:40
Aber man hat im Prinzip eine extremst fähige und die ist dann halt in Zellen,
1:00:40–1:00:44
quasi in die Intelligenz der Zellen gebaute Fehlerkorrektur,
1:00:45–1:00:48
und die dann halt diese Anpassung und die haben dann halt zum Beispiel solche
1:00:48–1:00:50
Anpassungsmechanismen wie,
1:00:52–1:00:59
an denen Wurm in so einer Bariumflüssigkeit ausgesetzt Barium ist dann halt,
1:01:00–1:01:02
kommt in der Natur so nicht vor.
1:01:02–1:01:06
Das heißt der Wurm war niemals damit konfrontiert irgendwie in einer natürlichen Umgebung.
1:01:06–1:01:14
Und was dann passiert ist, ist, dass sein Kopf explodiert ist in dieser Flüssigkeit.
Micz Flor
1:01:12–1:01:17
Okay. Hey, hey, hey, hey, hey, hey, hey.
Florian Clauß
1:01:14–1:01:17
Aber dann wechseln wir ab.
1:01:18–1:01:20
Naja, wir kommen nochmal zurück, aber das Ding ist.
Micz Flor
1:01:18–1:01:21
Naja, wir kommen nochmal zurück, aber das heißt, dass es erste.
1:01:21–1:01:25
Das erste Mal, dass ein Wurm gestorben ist von dieser Art, oder?
Florian Clauß
1:01:25–1:01:29
Nein, er ist nicht gestorben. Der Kopf ist explodiert, denn er hat die Fähigkeit.
Micz Flor
1:01:25–1:01:27
Nein, er ist nicht gestorben. Okay. Okay.
Florian Clauß
1:01:29–1:01:31
Natürlich, seinen Kopf dann halt zu regenerieren.
1:01:32–1:01:35
Das heißt, nach einer gewissen Zeit, nachdem man halt irgendwie konnte er sich
1:01:35–1:01:40
an diese völlig lebensfeindliche Umgebung konnte er sich dann halt anpassen
1:01:40–1:01:42
und hat dann an der Kopf ist nachgewachsen.
1:01:42–1:01:45
Also der ist nicht nur irgendwie so ruhig, agil, der ist er auch.
1:01:45–1:01:47
Er kann sich komplett regenerieren.
1:01:48–1:01:52
Also wenn du ihn in der Mitte durch schneidest, dann baut er wieder einen Schwanz.
Micz Flor
1:01:53–1:01:57
Ja. Okay. Also das heißt, das Tier konnte sich vom Kopf auf der einen Seite, oder.
Florian Clauß
1:01:53–1:01:56
Und so. Also das heißt, das Tier konnte sich dann halt.
1:01:58–1:02:02
Kommen wir noch mal zu. Also, das.
1:02:02–1:02:09
Das ist genau diese Frage von wie kann das entstehen, dass dann halt quasi die
1:02:09–1:02:13
Zellen auf dieser Ebene wissen, okay, wir wir machen jetzt also dieser ganze,
1:02:14–1:02:19
Regenerationsvorgang, den auch du hast du ja beim bei den Molchen oder bei irgendwelchen,
1:02:20–1:02:25
Amphibien auch ein Beispiel Du kannst dann halt einem quasi ein Molch.
1:02:25–1:02:31
Wenn du dem jetzt meinetwegen vom Ärmchen dann den den Unterarm abschneidet,
1:02:32–1:02:37
dann werden die dann regeneriert sich das aber bis zu einem Zustand,
1:02:37–1:02:41
wo dann halt komplett dieser Arm wieder hergestellt ist.
1:02:42–1:02:45
Das heißt die Zellen fangen dann genau da an zu wachsen und regenerieren.
1:02:45–1:02:48
Was, wenn er den Oberarm abschneidet? Dann gehen die halt auf der Stelle los,
1:02:48–1:02:51
und das heißt, das gibt dann halt irgendwie diese Information aus,
1:02:51–1:02:55
der der Gestaltherstellung ist irgendwie ist,
1:02:56–1:03:01
auf so einer zellulären Ebene codiert und die wird dann halt aktiviert in so einer Regeneration.
1:03:02–1:03:03
Das ist ja absolut.
Micz Flor
1:03:03–1:03:06
Interessant, weil das ist jetzt. Wir reden ja nicht mal übers Gehirn.
1:03:07–1:03:11
Und trotzdem ist bei all dem dann natürlich schon immer die Frage wie soll man
1:03:11–1:03:16
so etwas jemals in einem Software Abstraktion Layer für neuronale Netze,
1:03:17–1:03:21
oder Zellen oder Kommunikation zwischen Neuronen herstellen?
Florian Clauß
1:03:22–1:03:28
Es ist die, ähm, etwas, was man dann so übertiteln kann, als die Intelligenz,
1:03:28–1:03:31
quasi in so einem physiologischen Raum.
1:03:31–1:03:36
Also es gibt irgendwo eine Information, eine Intelligenz, die dann halt genau
1:03:36–1:03:42
das herstellen kann, wieder in dieser, in dieser Ausprägung ein anderes also.
1:03:42–1:03:48
Und dann aber ist es immer so eine gewisse mit einer gewissen Metamorphose verknüpft.
1:03:49–1:03:53
Das heißt du musst dann halt so in so einem Prozess sein, wo dann halt auch,
1:03:53–1:03:56
das Lebewesen sich neu zusammensetzt, anders ist.
1:03:56–1:04:05
Die haben jetzt also die arbeiten viel mit so elektro bioelektrischen Prägungen.
1:04:05–1:04:12
Das heißt, die hemmen dann bestimmte Ionen in der Zelle, die dann halten.
1:04:13–1:04:19
Darüber kannst du dann halt eine gewisse Prägung machen, in der, in der Ausführung.
1:04:19–1:04:22
Und da haben die auch irgendwie, ich weiß nicht, das ist so ein Blackbox,
1:04:22–1:04:27
weiß ich nicht genau, aber die wissen ungefähr, wo das Wachstum quasi verortet
1:04:27–1:04:29
ist und können dann halt die Zellen so prägen.
1:04:29–1:04:32
Da haben wir bei so einer Kaulquappe zum Beispiel, die komplett durcheinander
1:04:32–1:04:37
gewürfelt ist. Das Auge war halt irgendwie hinten, der Mund war halt quer und.
1:04:37–1:04:44
Also völlig natürlich, völlig völlig Matsch. Das Gesicht einer Kaulquappe. Aber das.
Micz Flor
1:04:39–1:04:46
Wie völlig Matsch. Das Gesicht einer Puppe. Der Schrei von Munk.
Florian Clauß
1:04:46–1:04:51
Aber das Dinge sein werden, die sich dann in dieser wieder in dieser Metamorphose
1:04:51–1:04:54
befand, wurde ein perfektes Froschgesicht draus.
1:04:54–1:05:00
Das heißt, die haben also diese Fehlerkorrektur jetzt wie bei dem quasi bei
1:05:00–1:05:03
dem, bei den Planetarien, bei diesen.
1:05:04–1:05:08
Bei diesem Strudelwurm ist da auch so in dieser Form auch eingebaut.
1:05:08–1:05:15
Das heißt, es gibt eine gewisse Form von Wissen, dass ich jetzt halt irgendwie,
1:05:15–1:05:18
na das Auge muss jetzt darüber wandern, ein bisschen weiter,
1:05:18–1:05:21
dann ist es in einem perfekten Zustand wieder,
1:05:23–1:05:27
was ja auch nochmal ein anderes Beispiel, was die auch noch mal gemacht haben ist, die haben,
1:05:29–1:05:30
das haben die ja ich weiß nicht.
1:05:31–1:05:37
Sogar glaube ich bei Säugetieren also diesen Kanal, diesen der geformt wird
1:05:37–1:05:43
von Zellen in der Niere, weil der Kidne Tube oder so war. Ich weiß nicht.
Micz Flor
1:05:39–1:05:39
Hm.
1:05:42–1:05:46
Du hast da schon gehört. Dieser Kanal.
Florian Clauß
1:05:44–1:05:51
Ja, und es gibt dieser Kanal wird ursprünglich wird wird von acht oder neun Zellen wird er geformt.
1:05:52–1:05:54
Und jetzt?
Micz Flor
1:05:54–1:05:58
Da haben sie dann irgendwie den Zellwachstum so verändert, dass sie größer wurden.
Florian Clauß
1:05:58–1:06:03
Genau. Genau. Genau. Ja, richtig. Genau.
Micz Flor
1:05:58–1:06:03
Und dann wurde das dann sogar, weil es nur eine Zelle war, hat sich selbst gewunden.
1:06:04–1:06:05
Das heißt, schon mal gehört?
Florian Clauß
1:06:04–1:06:08
Also, das heißt, diese Information zur morphologischen Herstellung.
1:06:08–1:06:11
Das heißt, eine Zelle kann dann auf einmal einen Kanal formen.
1:06:12–1:06:14
Ja, das ist also, warum?
1:06:15–1:06:19
Also, die vergrößern sich. Die Zellen sind. Aber machen dann jede Zelle.
1:06:19–1:06:22
Okay, macht dann so, dass es wieder ein Kanal ist.
1:06:22–1:06:25
Aber dann kann sogar eine Zelle diesen Kanal formen, das heißt,
1:06:25–1:06:27
diese Gesteinsausprägung,
1:06:28–1:06:32
dieser Konstruktion splan, die die Zelle dann, also das ist dann wieder so,
1:06:32–1:06:39
dieses auf der diese Intelligenz auf zellulärer Ebene die halt so das ist dann wieder diese Differenz,
1:06:41–1:06:45
zu so einem neuronalen Machine Learning Netzwerk das ist halt so total faszinierend.
Micz Flor
1:06:49–1:06:54
Ja, es ist halt auch insofern interessant, weil wir reden dann immer ja oder nicht?
1:06:54–1:06:59
Wir aber, die reden dann alle immer Information und die Information ist ja dann
1:06:59–1:07:04
erkenne die Katze im Foto, da erkenne in diesen Pixel eine Katze,
1:07:04–1:07:05
es ist eine Katze, dann ja,
1:07:06–1:07:12
und dann verbessere deine Wahrscheinlichkeit eines richtigen Ergebnisses.
1:07:12–1:07:15
Und jetzt reden wir auch über Informationen, Aber wir reden nicht über Informationen,
1:07:16–1:07:20
auf dieser Ebene von künstlicher Intelligenz, sondern es geht im biologischen System darum, unser.
Florian Clauß
1:07:19–1:07:22
Genau. Genau. Und da war noch ein anderes Beispiel. Jetzt nochmal einen anderen
1:07:22–1:07:27
Kontext, aber es passt ganz gut rein. Haben die auch zum Beispiel bei Hirschen festgestellt.
1:07:27–1:07:35
Wenn du einem Hirsch quasi auf dem Skelett eine kleine Verletzung bei einer
1:07:35–1:07:37
Stelle dann halt erzeugst.
1:07:38–1:07:39
Das ist dann in dem Moment, wenn.
Micz Flor
1:07:38–1:07:43
In dem Moment. Das heißt Schuss. Das heißt Schuss. Die.
Florian Clauß
1:07:41–1:07:47
Nein. Aufgeweichte also das Schnitz das Geweih an einer bestimmten Stelle ein.
Micz Flor
1:07:47–1:07:48
Hm.
Florian Clauß
1:07:48–1:07:53
Das die stoßen ja das Geweih immer jährlich ab und das wurde festgestellt,
1:07:53–1:07:58
dass dann halt da wo die Verletzung war, dass dann quasi der eine Abzweigung entsteht.
Micz Flor
1:07:58–1:08:01
Beim nächsten und übernächsten. Krass.
Florian Clauß
1:07:59–1:08:03
Beim nächsten Geweih also und und das passiert so lange es passiert,
1:08:03–1:08:08
ungefähr 3 bis 5 Jahre und dann ist es weg.
Micz Flor
1:08:07–1:08:07
Ist es weg.
Florian Clauß
1:08:09–1:08:13
Aber das ist halt auch wieder, wo wird diese Erinnerung dann quasi vorgehalten?
1:08:14–1:08:16
Es sind ja quasi dann auch Zellen, die sind ja dann nicht mehr da.
Micz Flor
1:08:17–1:08:21
Also ich würde ja davon ausgehen, nach deiner Ameisenfolge, dass die Hirsche
1:08:21–1:08:26
auch sehr soziale Lebewesen sind und dann sagen halt die Hirsche zum Hirsch,
1:08:26–1:08:30
also letztes Jahr zu da es hat dir ganz gut gestanden.
1:08:30–1:08:34
Versuch mal, denk einfach nein, du musst einfach innerlich ein mentales Bild
1:08:34–1:08:37
bauen, dass da jetzt was raus wächst. Das war echt gut. Probier das noch nochmal.
Florian Clauß
1:08:37–1:08:44
Ja und? Und dann bin ich out of the red now. Nein. Woher weißt du das? Wir haben doch nur 1/4.
Micz Flor
1:08:45–1:08:48
Ja, es ist interessant. Ich. Ich. Der Begriff der Epigenetik kommt mir halt,
1:08:49–1:08:52
auf den Kopf. Also diese Umwelt. Aber das ist natürlich.
Florian Clauß
1:08:49–1:08:56
Ja, ja, der wird noch viel heftiger denn je. Nein, aber es ist da.
Micz Flor
1:08:52–1:08:54
Okay, gut. Der kommt noch, oder? Was?
Florian Clauß
1:08:56–1:09:01
Also das finde ich halt auch so fraglich, wie er dann halt bestimmte Versuchsanordnungen,
1:09:01–1:09:05
Experimente, diese ganze, diese Frage von Ethik, Genetik, diese ethische.
Micz Flor
1:09:05–1:09:08
Einen Epigenetik, meine ich jetzt. Also Epigenetik ist quasi die.
1:09:08–1:09:12
Der Zusammenhang zwischen eine Ethik ist natürlich auch ein Thema beim.
1:09:12–1:09:15
Beim Hirschschnitzen und Kaulquappen Gesicht geht's los.
1:09:15–1:09:21
Aber Epigenetik ist ja eben diese Zusammenhang zwischen Aktivierung von Gensequenzen,
1:09:21–1:09:26
um bestimmte Dinge herzustellen und und diese also Anlage Umwelt Korrespondenz,
1:09:26–1:09:29
die halt immer wieder auch ähm,
1:09:31–1:09:35
ja, wie eben Lebewesen auch auf verändernde Umweltbedingungen direkt reagieren
1:09:35–1:09:37
können anhand des Genpools, den sie schon haben. So.
Florian Clauß
1:09:38–1:09:44
Wurde auch dann in einer Publikation zugemacht haben.
1:09:44–1:09:48
Das Team, das war schon ein bisschen länger her, aber das wird dann auch immer rausgeholt.
1:09:48–1:09:58
Ist auch wieder bei diesen Planetarien, da haben die halt diesen Wachstum von einem Kopf.
1:09:58–1:10:03
Also wenn es geschnitten wird, das ist halt dann quasi sich dann sehr regeneriert,
1:10:03–1:10:10
und dann haben wir es quasi die Zellen so beeinflusst, dass die halt einen zweiten
1:10:10–1:10:11
Kopf wachsen lassen konnten.
Micz Flor
1:10:11–1:10:14
Hm. Also, das ist total okay.
Florian Clauß
1:10:12–1:10:15
Also das ist ja total wohl.
1:10:15–1:10:18
Diese Information ist dann auch so verstreut über bestimmte Bereiche,
1:10:18–1:10:23
aber das ist dann auch, dass das, nachdem der halt quasi geschnitten wurde,
1:10:23–1:10:28
hat er dann einen zweiten Kopf ausgebildet, dann ein zweiköpfiges Tier und.
Micz Flor
1:10:28–1:10:32
Dieser Wurm ist. Man muss sich immer fragen. Der vermehrt sich nur,
1:10:32–1:10:34
wenn er durchgeschnitten wird, oder?
Florian Clauß
1:10:34–1:10:38
Nein, Wir sind Zwitter. Der. Vermeintlich. Geschlechtlich.
Micz Flor
1:10:39–1:10:43
Aber wie? Wie vermehrt er sich? Also wenn, der hat jetzt keinen, der hat sein.
Florian Clauß
1:10:40–1:10:44
Meine. Der vermeintlich vermeintlich normal.
Micz Flor
1:10:47–1:10:48
Gut.
Florian Clauß
1:10:50–1:10:53
Nein. Also sexuell. Also wir vermeintlich. Halt.
Micz Flor
1:10:53–1:10:58
Mit sich selbst oder mit anderen. Oder aber was mischt er denn dann.
Florian Clauß
1:10:55–1:10:57
Nein, nein, nein, nein, nein. Das ist kein Hermaphrodit ist.
Micz Flor
1:10:58–1:11:00
Wenn er, wenn er sich befruchtet, gegenseitig, Wenn der Sein,
1:11:01–1:11:05
sein Genom sowieso nur Müll ist? Wie? Wie hat er dann überhaupt Sex?
1:11:05–1:11:08
Oder hat er gar keinen Sex? Vielleicht hat er gar keinen Sex?
Florian Clauß
1:11:06–1:11:10
Nein, der hat recht. Natürlich lassen wir den Wurm in Ruhe.
Micz Flor
1:11:11–1:11:13
Ich glaub, ich glaub, der hat keinen Sex.
Florian Clauß
1:11:13–1:11:18
Doch während du versagst, kann das Geschlecht wechseln. Also je nachdem was benötigt wird.
Micz Flor
1:11:16–1:11:17
Und okay.
Florian Clauß
1:11:19–1:11:23
Ist halt irgendwie entweder Eizelle oder Spermium. Kann er dann halt.
1:11:23–1:11:26
Es ist kein Selbstbefruchter, aber es ist halt ein Zwitter.
Micz Flor
1:11:25–1:11:27
Selten davon. Okay.
Florian Clauß
1:11:28–1:11:32
Und also geschlechtliche Arbeit ist immer.
1:11:33–1:11:41
Diese Szenarien wie beim Lurch oder so, das ist ja immer, wenn quasi das Tier verliert.
1:11:41–1:11:45
Es geht immer um diesen Verletzungszustand oder um diese Metamorphose.
1:11:45–1:11:49
Das heißt dann, wenn halt quasi ein Zustand eingetreten ist,
1:11:50–1:11:53
der dann halt dich erst mal benachteiligt.
1:11:54–1:11:58
Und, und das ist das Interessante ist halt, dass wenn die halt die diesen Wurm
1:11:58–1:12:03
dann so programmiert haben, dass er sich dann halt zwei Köpfe wächst.
1:12:04–1:12:09
Es ist halt scheißegal, ob er das halt irgendwie so, der kann auch so was, der kann auch so weiter.
1:12:09–1:12:12
Aber in dem Moment, wenn halt geschnitten wird, dann hat diese Information kommt
1:12:12–1:12:17
die raus auch die kann auch halt sehr sehr viel später kann der halt dann verteilt
1:12:17–1:12:21
werden und trotzdem ist diese Information bleibt die erhalten.
Micz Flor
1:12:21–1:12:26
Das heißt er wird weiterhin auch nach Teilung dann zwei Knöpfe knöpfen.
Florian Clauß
1:12:25–1:12:33
Genau das ist das elektrische Muster, was dabei quasi beeinflusst wird.
1:12:33–1:12:39
Das ist auch gleichzeitig so ein Muster Gedächtnis, was dann halt damit trainiert
1:12:39–1:12:43
wird oder oder nicht trainiert, aber wo es dann halt gespeichert ist.
1:12:44–1:12:45
Also das Gedächtnis davon.
Micz Flor
1:12:46–1:12:49
Aber weiß man, wo das gespeichert? Also wenn ich es richtig verstehe, man.
Florian Clauß
1:12:48–1:12:51
Ja, ja, genau. Die haben das auch gezeigt. Dann musst du halt eine.
1:12:52–1:12:55
Das sind dann wahrscheinlich so Experimente, oder? Keine Ahnung.
1:12:55–1:12:57
Also das ist so ein bisschen Vertrauen. Blackbox.
1:12:57–1:13:03
Wir haben dann über verschiedene Regionen im Körper von dem dann halt gezeigt,
1:13:03–1:13:05
wo man das dann halt beeinflussen muss.
1:13:05–1:13:08
Das ist jetzt nicht eine Zelle, sondern es sind dann halt so Regionen.
1:13:09–1:13:12
Aber weiß ich nicht, das ist auf so einer High Level Ebene, das weiß man nicht, wie man das.
Micz Flor
1:13:10–1:13:14
Aber wenn nicht ich? Wenn ich das richtig verstehe, ist es so.
1:13:14–1:13:17
Du hast einen Wurm, Dieser Wurm.
1:13:18–1:13:23
Wenn er durchschnitten wird, dann bilden sich zwei Würmer komplette Würmer draus. Oder nur eine?
Florian Clauß
1:13:23–1:13:29
Nein, ich glaube, der wird nur der hintere Teil der der stirbt ab da der Schwanz.
1:13:29–1:13:32
Also da kommt kein Kopf raus, sondern quasi das.
1:13:33–1:13:36
Der Kopf ist schon das, was dann weiterlebt, das Individuum.
1:13:36–1:13:39
Und der kann sich einen neuen Schwanz generieren.
Micz Flor
1:13:38–1:13:43
Generieren. Und da kann dann wieder ein Kopf dran sein, wenn man ihn umprogrammiert. Das ist okay.
Florian Clauß
1:13:42–1:13:44
Genau das ist das Experiment.
Micz Flor
1:13:44–1:13:51
Und diese diese Information entsteht über eine wie auch immer geartete,
1:13:53–1:13:55
ein elektrisches Feld, oder?
Florian Clauß
1:13:56–1:13:59
Ein elektrisches Feld. Die haben das quasi.
1:14:01–1:14:08
Ja. Also über. Über elektrische Methoden. Diese Speicher also jetzt nicht chemisch,
1:14:08–1:14:13
sondern elektrisch. Dann so beeinflusst die Zellen, dass die diese Informationen gegeben haben.
Micz Flor
1:14:13–1:14:14
Die.
Florian Clauß
1:14:14–1:14:18
Also das ist aber wie gesagt, das ist wirklich so alles schon ganz oben drauf.
Micz Flor
1:14:17–1:14:23
Aber der Wurm ist kein Einzeller. Ist ein Mehrzeller. Ja, klar. Okay. Okay.
Florian Clauß
1:14:18–1:14:22
Gekommen. Nein. Klar. Das ist ein Superzeller.
1:14:24–1:14:25
Also richtig, richtig gut.
Micz Flor
1:14:25–1:14:31
Ja. Viele Zellen, viel Sex. Okay. Ich verstehe. Toller Wurm.
1:14:31–1:14:33
Dieser Wurm ist ein toller Hecht.
Florian Clauß
1:14:33–1:14:37
Man kann nicht komplett generieren, ist eigentlich unsterblich.
Micz Flor
1:14:34–1:14:35
Und. Okay.
1:14:37–1:14:39
Okay. Ein richtig gutes Tier.
Florian Clauß
1:14:37–1:14:39
Also richtig. Also ein richtig gutes Tier.
Micz Flor
1:14:41–1:14:43
Ja. Man kann die extremst mit anfassen.
Florian Clauß
1:14:41–1:14:43
Und kann sich extremst gut anpassen.
1:14:45–1:14:53
Ähm, also das heißt, wir haben Zellen, die jetzt quasi einen höher sind,
1:14:53–1:14:56
also dieses goal fulfilling.
1:14:57–1:14:58
Also das ist das Ziel.
1:14:59–1:15:04
Wenn ich dann auch so einer in so einer Entwicklung bin, dann als Zelle,
1:15:05–1:15:08
dann werde ich halt Zellleber oder so..
1:15:08–1:15:11
Das heißt, irgendwo gibt es dann halt irgendwie jede Zelle. Okay,
1:15:11–1:15:14
ich mache das so, aber dann gibt es halt diese Arten von Zellen,
1:15:15–1:15:19
die abgeschnitten sind, das heißt, sie nicht diesem Körper,
1:15:20–1:15:23
diesem höheren gestalterischen Werk dann.
Micz Flor
1:15:23–1:15:28
Na dann. Langzeitarbeitslose? Nein, das sind. Das sind die. Zählen die dann halt sich selbst?
Florian Clauß
1:15:25–1:15:31
Nein, das sind, das sind die Zellen, die dann sich selbst quasi dann wieder sich selbst genügen.
1:15:31–1:15:34
Und was passiert mit den Zellen, die wachsen? Das sind Krebszellen.
Micz Flor
1:15:35–1:15:36
Okay, Halt. Genau dieses Ding.
Florian Clauß
1:15:35–1:15:37
Das ist halt genau dieses Ding, das ist Krebs.
1:15:38–1:15:39
Also jetzt auch so aus einer ganz.
Micz Flor
1:15:40–1:15:45
Also Krebs ist eine Zelle eines Organismus. Der oder die muss sein.
1:15:46–1:15:52
Gendern oder nicht? Was wird aus der aus dem Verband irgendwie abgekapselt und
1:15:52–1:15:55
fängt dann einfach an zu tun, was Zellen halt tun Sich zu vermehren.
Florian Clauß
1:15:56–1:16:00
Also ganz grob gesprochen. Ja, genau das.
1:16:00–1:16:05
Das heißt, die vermehren sich und sie, sie sind quasi Selbstzweck,
1:16:05–1:16:09
erfüllen nicht diesen, diesem allgemeinen Ziel.
1:16:10–1:16:18
Und auch hier ist die Frage so, also die da wieder die Intelligenz auf zellulärer Ebene.
1:16:18–1:16:22
Und so ein Roboter kann jetzt keinen Krebs bekommen, weil es gibt dann halt
1:16:22–1:16:24
immer so eine Hierarchie.
1:16:25–1:16:29
Also das ist halt auch auch wieder so ein Gedankenexperiment.
1:16:29–1:16:31
Was müsste passieren, damit ein Roboter Krebs bekommt?
1:16:32–1:16:36
Nee, also das wäre ja auch schon wieder so eine biologische.
Micz Flor
1:16:37–1:16:42
Also das Bild, was sich in mir auslöst, ist natürlich dann irgendwie keine Ahnung,
1:16:42–1:16:46
dass irgendein System ein Teilsystem des Roboters nicht genutzt wird und dann
1:16:46–1:16:48
läuft halt irgendwann die Batterie aus.
1:16:49–1:16:53
Ja, das wäre so ein Bild, was ich habe. Wo sind wir eigentlich gerade?
Florian Clauß
1:16:53–1:16:56
Wer sind wir? Wir können nur mal ein bisschen hier durchgehen.
1:16:56–1:17:00
Ich glaube, wir sind jetzt quasi parallel zu dieser Hauptstraße.
Micz Flor
1:17:01–1:17:04
Es ist echt irre, dieses Laufen beim Reden und laufend Reden.
1:17:04–1:17:08
Wenn man es in Bergen macht, dann weiß man ja immer bleibt irgendwie bei der
1:17:08–1:17:10
Farbe. Markierung läuft halt einfach immer weiter.
1:17:11–1:17:15
In der Stadt merke ich, dass ich komplett jede Orientierung verliere. Es.
Florian Clauß
1:17:14–1:17:20
Ja, es stimmt. Du hast einfach keine. Keine Skyline. Du hast keinen Horizont. So richtig.
1:17:21–1:17:25
Und das. Was? Was Jetzt auch nochmal Ein total spannendes,
1:17:27–1:17:33
Teilprojekt von denen. Was aber auch wieder auf den Forschungsarbeiten von anderen beruht.
1:17:34–1:17:39
Die haben, die haben sogenannte Xenobots.
1:17:39–1:17:42
Ich weiß nicht, ob du davon schon mal gehört hast. Genau.
Micz Flor
1:17:40–1:17:42
So war es dann schon mal gehört. Ja, ja, davon habe ich gehört.
1:17:42–1:17:45
Habe ich den nicht immer sogar erwähnt? Kann sein.
Florian Clauß
1:17:44–1:17:48
Es kann sein, dass du die erwähnt hast. Aber hier ist eine Sackgasse.
Micz Flor
1:17:46–1:17:50
Ich glaube, das war bei. War das nicht so?
1:17:50–1:17:54
Nee, weiß ich nicht mehr. Ich glaube bei Konrad Zuse mit dem Biologie Ding,
1:17:54–1:17:55
da ist mir das irgendwie untergekommen.
1:17:55–1:18:03
Xenobots sind so was wie Zellen von einem Organismus, die miteinander zusammengefügt
1:18:03–1:18:06
werden und ein neues Lebewesen erstellen.
Florian Clauß
1:18:06–1:18:12
Ja, also man liebte es, das erste artifiziell geschaffene wilde Wesen, was man darf.
1:18:12–1:18:19
Und es sind von einem afrikanischen Frosch die Hautzellen, die ein Teil des Spots ausmachen.
1:18:20–1:18:24
Werden so für die ganze Versorgung zuständig sind und für die Ernährung.
1:18:24–1:18:25
Und der andere Teil sind.
1:18:26–1:18:33
Wir haben einmal Herzmuskeln genommen, von denen Frosch und oder so.
Micz Flor
1:18:28–1:18:29
Ja.
Florian Clauß
1:18:33–1:18:39
Wir sind quasi Herrchen Zellen. Wir können helfen aus den.
Micz Flor
1:18:39–1:18:40
Von Fröschen.
Florian Clauß
1:18:41–1:18:46
Auf der Froschhaut gibt. Wobei mir eine wollten ja bis jetzt beeinflussen will.
1:18:46–1:18:52
Aber im Prinzip diese Herz oder Herzchen Muskelzellen sind dann für die Fortbewegung zuständig.
Micz Flor
1:18:52–1:18:58
Okay, die sind quasi muskelähnlich, aber eben keine Muskel Muskeln mehr und auch Herzmuskels.
Florian Clauß
1:18:58–1:19:03
Zöllner schon. Ja, ja. Und dann haben wir halt ganz viele.
1:19:04–1:19:09
So auch so ein neuronales Netz ohne Binden durchlaufen lassen,
1:19:09–1:19:14
was dann halt die Kombination aus diesen beiden Zelltypen berechnet haben,
1:19:14–1:19:16
So ein bisschen wie Minecraft.
1:19:16–1:19:22
Die einen waren halt blau, die anderen halt rot gezeichnet und haben darauf halt.
1:19:22–1:19:25
Daraufhin halt diese diese Kinobots Design.
1:19:25–1:19:30
Und die effektivste, die sich am effektivsten bewegt haben usw. Und dann konnten die,
1:19:32–1:19:39
teilweise so durch so Gänge bewegen konnten Babys intelligentes Bewegungsverhalten,
1:19:39–1:19:42
also Intelligenz gesteuertes Bewegungsverhalten.
1:19:42–1:19:47
Wenn er sie können konnten dann halt. Und wir können jetzt in der dritten vierten
1:19:47–1:19:52
Generation das ist halt auch diesem Team vermittelt auf dass die sich reproduzieren können.
1:19:53–1:19:59
Ich bin kein Jogi Löw. Vielleicht, weil ich den ganzen Schotter um die uhr und
1:19:59–1:20:02
dann wieder zusammen getragen haben und daraus dann neue zimmert.
1:20:02–1:20:07
Worte. Entstanden sind allerdings Interviews mit Leuten, die schon dieses Next Level.
1:20:08–1:20:10
Und mögen sie so zu sein.
1:20:11–1:20:13
Und er ist krass.
Micz Flor
1:20:13–1:20:17
Da gibt es doch wie heißt das noch mal, dieses Game of Life, oder?
1:20:17–1:20:21
Ich weiß genau wo, wo man bestimmte Regeln hat. Das 110.
1:20:21–1:20:27
Hab ich dir doch auch mal einen Link geschickt, wo quasi Game of Life als Programm
1:20:27–1:20:31
war für Game of Life, wo das quasi in sich selbst programmiert war.
1:20:32–1:20:33
Mal gucken, ob ich das nochmal finde.
Florian Clauß
1:20:34–1:20:34
Und.
1:20:37–1:20:41
Das alles? Das ist schon sehr faszinierend, was? Krass. Und?
1:20:41–1:20:45
Und diese Vision von diesem Michael Leben ist halt.
1:20:46–1:20:50
Also, wir haben so ein klassisches Bild von den Menschen.
1:20:50–1:20:56
Es gibt Tiere, es gibt den Engel, dessen Seele allerdings schon sehr viel breiter gefächert war.
1:20:56–1:21:01
Es gibt alle möglichen Formen von. Zukünftig würde alles so ein bisschen durcheinander
1:21:01–1:21:03
laufen, das heißt es gibt Einheit.
1:21:04–1:21:10
Es gibt dann halt irgendwie so normale biologische Wesen, so dazwischen Wesen.
1:21:10–1:21:15
Es gibt ein bisschen das, also hat das so komplett divers gemacht und dann und,
1:21:15–1:21:18
das ist so ne gewisse Vision, aber gleichzeitig,
1:21:19–1:21:24
wenn ich das halt schon ein bisschen fragwürdig aus den ethischen Gesichtspunkten
1:21:24–1:21:26
heraus, was passiert denn dann,
1:21:27–1:21:31
wenn wir diese diese Lebensformen so generiert aus dem Material,
1:21:31–1:21:36
was erstmal so biologisch überhaupt mit Umgebung irgendwie zusammen kommen kann?
1:21:36–1:21:41
Also wenn man halt so einen natürlichen Prozess von Biologie und Emotionen dahinter.
Micz Flor
1:21:41–1:21:42
Interessant auch da wieder.
Florian Clauß
1:21:42–1:21:47
Vergiss es, freier Mann. Wir hätten auch gesagt, wenn die Zellen in seiner Generation
1:21:47–1:21:49
mutieren als Krebse, dann sind die befreit.
1:21:49–1:21:55
So eine Therapie kann man. Vielleicht muss man muss. Befreiung.
Micz Flor
1:21:50–1:21:51
Wir haben die Ausstellung.
1:21:55–1:21:55
So sehen.
Florian Clauß
1:21:56–1:21:58
Es ist ja auch was Bösartiges.
1:21:59–1:22:00
Aber wer so sehr.
Micz Flor
1:22:02–1:22:05
Aber es ist doch. Ich denke jetzt gerade so ein bisschen wie diese Sache,
1:22:05–1:22:08
so der Mensch sich selbst ins Zentrum stellen, sich selbst bewerten,
1:22:08–1:22:09
beobachten, beschreiben.
1:22:10–1:22:17
Und da fände ich das ganz spannend, wenn man so sagt, dass jede Zelle bis zu
1:22:17–1:22:20
einem gewissen Grade scheinbar spezialisiert ist, aber dann irgendwie universell
1:22:20–1:22:24
einsetzbar in neuen Systemen verschränkt werden kann und dass,
1:22:25–1:22:28
da denke ich dann auf einer gesellschaftlichen Ebene zum Beispiel an diese No
1:22:28–1:22:32
borders Bewegung, dass man sagt so, es gibt so was wie Nationalstaaten und Grenzen,
1:22:32–1:22:35
das ist völlig arbitrary, das braucht man nicht.
1:22:35–1:22:39
Das ist ein Konstrukt, was dem Menschen nicht entspricht.
1:22:40–1:22:47
Und wenn man das halt irgendwie so festhält, dann ist das doch nicht viel anders,
1:22:47–1:22:48
wie das, was du gerade beschrieben hast.
1:22:48–1:22:54
Diese Idee, dass wir, dass wir diese, diesen in sich geschlossenen großen Organismus,
1:22:55–1:22:59
dass es den so gar nicht gibt, also dass der dass, das wissen wir ja schon lange,
1:22:59–1:23:03
dass das Bio und Genom und wie auch immer und jetzt kommt die Elektro.
1:23:04–1:23:09
Bio Elektrizität noch irgendwie dazu und dass sich das alles so diese Grenzen
1:23:09–1:23:13
so auflösen, dass das so ein Unwohlsein herstellt, dass man gerne möchte,
1:23:14–1:23:16
dass die Leber den Iris trainiere Und da möchte ich auch nicht,
1:23:16–1:23:17
dass das irgendwie verändert wird.
1:23:17–1:23:21
Traditionsbewusst ja, aber ich glaube, das ist ein menschlicher Wunsch.
1:23:21–1:23:24
Also dass man genauso wieder sagt so ja, Deutschland ist Deutschland, Bayern ist Bayern.
1:23:25–1:23:28
Dass man halt irgendwie genauso her sagt Zur Leber ist Leber bsp.
1:23:28–1:23:30
Schnaps, Schnaps und dann.
1:23:32–1:23:37
Und dadurch dann diese Idee. Dass es so viel flexibler und beweglicher ist,
1:23:37–1:23:39
ist halt auch enorm irritierend.
Florian Clauß
1:23:39–1:23:43
Genau. Eigentlich bin ich jetzt so ähnlich. Wir noch ein paar Punkte.
1:23:44–1:23:45
Also ich glaube, das. Was dann?
1:23:46–1:23:51
Also dieses. Dieses Bild von dieses diverse was du jetzt auch gerade noch dieser
1:23:51–1:23:57
Wunsch dass man das dann irgendwie doch irgendwie so traditioneller oder begreifbarer menschlicher macht.
1:23:58–1:24:03
Aber das ist halt auch so, da zeigt sich so ein so ein so ein Feld was,
1:24:03–1:24:06
was man glaube ich noch gar nicht so richtig so begreifen kann.
1:24:06–1:24:10
Aber finde ich total spannend. Also hat mich.
Micz Flor
1:24:10–1:24:12
Was ich total gut finde an dem, was ich gerade so gehört habe,
1:24:12–1:24:13
wie du es beschrieben hast.
1:24:15–1:24:18
Was? Das Genom.
1:24:20–1:24:25
Was ja auch keine Ahnung über 50 60 Jahre eigentlich schon bekannt ist und entschlüsselt wurde.
1:24:25–1:24:30
Das hat uns ja sehr dazu verleitet, in Turingmaschinen zu denken und zu sagen
1:24:30–1:24:35
Wenn wir das erst mal entschlüsselt haben, dann haben wir den Schlüssel zum Leben und und.
1:24:37–1:24:41
Die das ist natürlich was, was in der Wissenschaft dann irgendwie so auch Einzug
1:24:41–1:24:45
gehalten hat. Da wurde nämlich dann auch und das ist die Brücke zur künstlichen
1:24:45–1:24:49
Intelligenz immer gesagt naja, wir müssen erst mal ein Gehirn irgendwann so
1:24:49–1:24:51
kartografieren und so detailreich.
1:24:51–1:24:53
Wenn wir das einmal gemacht haben, dann haben wir es auch verstanden,
1:24:53–1:24:55
wie das Gehirn funktioniert.
1:24:56–1:25:01
Was natürlich sehr schnell klar geworden ist Nicht nur auf Genomebene gibt es,
1:25:01–1:25:06
große, große, große Varianzen, wo teilweise Teile, wo man nachhinein erst merkt,
1:25:06–1:25:10
dass das wirklich auch als Speicher genutzt wird und nicht nur als reproduzierende,
1:25:11–1:25:13
Proteinschablonen.
1:25:14–1:25:18
Und beim Gehirn ist es ja noch viel mehr so, dass Gehirn keine zwei Gehirne sind gleich.
1:25:18–1:25:21
Und trotzdem ging man lange dahin zu sagen Ach, wir müssen einfach mal eins
1:25:21–1:25:23
nachbauen und dann haben wir alles gecheckt.
1:25:23–1:25:31
Und was du jetzt gerade beschreibst. Diese Auflösung von Grenzen, von Leben und Tod.
1:25:31–1:25:35
Man hat ja immer schon diese Thematik gehabt. Stammzellen sind können alles
1:25:35–1:25:37
werden, aber ab einem gewissen Punkt ist es irreversibel. Dann können sie nur,
1:25:37–1:25:39
in eine bestimmte Richtung sich weiterentwickeln.
1:25:40–1:25:43
Das ist trotzdem jetzt mit dem, was du gerade beschreibst, diese Möglichkeit,
1:25:44–1:25:48
auch über wie auch immer geartete. Da habe ich nicht genau kapiert.
1:25:48–1:25:50
Aber elektrische Interventionen dann.
1:25:52–1:25:57
Wissen weiter zu vererben, in geteilten Tieren irgendwie zwei Köpfe zu implementieren,
1:25:57–1:25:59
das zeigt ja, dass es eben nicht
1:25:59–1:26:05
so einfach ist zu sagen, ich nehme dieses lebendige biologische Ding,
1:26:07–1:26:11
lege es hin, bis es tot ist und dann esse ich es aus und dann habe ich es kapiert.
Florian Clauß
1:26:10–1:26:11
Ja, genau.
Micz Flor
1:26:11–1:26:15
Sondern gerade das mit dieser Bio Elektrizität ist ja wohl ein großes Zeichen
1:26:15–1:26:21
dafür, dass das im Leben Dinge auch jenseits der Genetik, jenseits von Serum,
1:26:21–1:26:25
jenseits von Mitochondrien, jenseits von was weiß ich weitergegeben werden können.
1:26:27–1:26:31
So, und das, was ich am verwirrend sten finde, ist wirklich das mit dem Hirsch.
Florian Clauß
1:26:28–1:26:29
Ja, Ja. Also, genau.
Micz Flor
1:26:33–1:26:36
Das würde mich begleiten. Aber es ist ja auch wieder nur zeigt.
1:26:36–1:26:39
Ich bin als Mensch natürlich dem Hirsch verwandter als dem Wurm,
1:26:39–1:26:44
obwohl ich mehr Würmer in mir hab als Hirsche, aber trotzdem.
Florian Clauß
1:26:45–1:26:51
Das will das Bild im Kopf. Und dein Hirsch guckt raus. Ach, Scheiße, Schon wieder?
1:26:51–1:26:53
Ich habe ihn da gerade verletzt.
1:26:54–1:26:59
Ähm, ja, genau. Also, das ist irgendwie so, diese Entschlüsselbarkeit, diese.
1:26:59–1:27:03
Diese Vorstellung. Wir entschlüsseln das Genom und wissen dann Bescheid und
1:27:03–1:27:06
können dann die Rätsel des Lebens lösen.
1:27:06–1:27:11
Das war ja ganz, ganz lange so dieses. Genau dieser Gedanke,
1:27:12–1:27:14
wo diese Entschlüsselung von von
1:27:14–1:27:18
gehen dann halt so auch so extrem viel Forschungsgelder usw. bekommen hat.
1:27:19–1:27:22
Und das ist halt irgendwie man merkt okay, da sind wir jetzt noch nicht fertig.
1:27:23–1:27:26
Das zeigt uns noch nicht irgendwie, dass es halt irgendwie möglich ist.
1:27:27–1:27:31
Aber man kann natürlich dann fährt ein größeres Tool Set, das man anwenden kann,
1:27:32–1:27:37
dann kommt CRISPR CAS, diese Genschere, das ganze aus Vielzahl gesteuert und das machen.
1:27:38–1:27:44
Also das meint auch das ist auch in dem Vergleich in dem in der Beschreibung von dem Wurm dass,
1:27:44–1:27:48
du kannst halt keine Mutter der hat keine Mutationen also du kannst halt irgendwie,
1:27:48–1:27:52
kannst jedem Tier irgendeine Mutation machen durch durch durch Gensteuerung
1:27:52–1:27:56
die man kein Problem wir können irgendwie fliegen, dann rote Augen machen,
1:27:56–1:27:59
wir können Hühner ohne Zehen, wir können halt,
1:28:00–1:28:05
weiß ich nicht alles mögliche an Mutationen machen, aber der Wurm ist resistent dagegen.
1:28:05–1:28:09
Also der hat das halt alles so raus. Fehler korrigiert und das geht nicht,
1:28:09–1:28:13
oder Dann haben wir auch halt irgendwie dem so ein Krebsgeschwür eingepflanzt,
1:28:14–1:28:16
und das hat er dann halt aufgelöst.
1:28:16–1:28:21
Es war dann halt, äh wirklich faszinierendes Tierchen. Ja, und?
Micz Flor
1:28:21–1:28:25
Muss. Den Wurm kenne ich. Ich muss ja noch nachforschen. Ich fand es auch noch interessant.
1:28:25–1:28:30
Was bei mir nur mal angestoßen hat, ist halt auch diese Dieses weise Leben wird
1:28:30–1:28:33
ja immer so was ganz prekäres beschrieben.
1:28:33–1:28:37
Und wir haben ja auch auf unserer menschlichen Ebene wieder unglaublich viel
1:28:37–1:28:41
lebenserhaltende Systeme implementiert, über Notarzt, über Tabletten oder sonst wo.
1:28:41–1:28:46
Das Leben muss halt irgendwie geschützt und aufrechterhalten werden und gleichzeitig
1:28:46–1:28:49
ist das Leben ja mit dem, was du beschrieben hast, jetzt auch mit diesen Xenobots,
1:28:50–1:28:55
unglaublich anpassungsfähig und dann auch so flexibel.
1:28:55–1:28:58
Und dann dachte ich an etwas. Ich weiß nicht, ob du das kennst.
1:28:58–1:29:06
Die Gonaden, das sind die, bevor man weiß, ob es Eier oder Spermien werden, also bevor man.
1:29:06–1:29:12
Man gibt es halt quasi so schon angelegte geschlechtliche Fortpflanzung und.
Florian Clauß
1:29:11–1:29:12
Ja, okay.
Micz Flor
1:29:12–1:29:15
Ähm, und das fand ich so ganz irre, ich weiß gar nicht mehr,
1:29:15–1:29:17
wo ich das glaub ich auch.
1:29:17–1:29:19
Im Podcast muss man gucken, da gibt es einen, der genau ist.
1:29:19–1:29:22
Das sind drei Teile, glaube ich, von Radio Lab über die Gonaden,
1:29:24–1:29:27
und da wurde auch noch drin beschrieben, dass in dem Moment,
1:29:27–1:29:35
wenn eine der ganz frühen Entwicklungsphasen im Embryo ist die Gonaden Wanderung, so dass.
1:29:37–1:29:45
Im Mutterleib sich schon die Die Zellen der übernächsten Generation,
1:29:45–1:29:48
also noch bevor es geboren wird, wird da schon natürlich angelegt.
1:29:48–1:29:51
Die Generation drauf, und das ist eine ganz wichtige Sache.
1:29:51–1:29:57
Also dass das Leben im Mutterbauch werden quasi die Enkelkinder mit als erstes hergestellt.
Florian Clauß
1:29:58–1:29:59
Du willst. Sackgasse.
Micz Flor
1:29:59–1:30:02
Das ist auch eine Sackgasse. Und das fand ich total irre.
1:30:03–1:30:07
Es muss, ja muss ja sein. Aber dass halt eben nicht einfach nur die Geburt der
1:30:07–1:30:09
nächsten Generation ist und die kümmert sich um die nächste,
1:30:09–1:30:13
sondern nein, im Mutterleib wird die übernächste Generation auch schon mit angelegt.
Florian Clauß
1:30:13–1:30:14
Der Wahnsinn.
Micz Flor
1:30:14–1:30:18
Und wenn die die Eier zum Beispiel wenn dann die Frau geboren wird,
1:30:19–1:30:22
wurde das halt alles schon vorgegeben. Und das fand ich halt irgendwie irre, wie.
1:30:23–1:30:29
Wie viele Sicherheitsnetze und wie viel vorausschauende Planung so im Leben einfach drin ist.
Florian Clauß
1:30:29–1:30:36
Ja, genau. Ich war extrem inspiriert von dem Vortrag von Herrn von.
1:30:36–1:30:40
Auch von den Interviews fand ich irgendwie. So was wollte ich jetzt gerne nochmal
1:30:40–1:30:43
so in dem Kontext teilen, weil das wirklich so nochmal dieses,
1:30:43–1:30:50
biologische Modell gegen dieses Machine Learning und ein ein Abschluss den oder,
1:30:50–1:30:54
ein Satz den Michael Lewin, den ich zum Abschluss immer so bringen kann ist halt,
1:30:55–1:31:00
dass quasi Evolution jetzt nicht auf Probleme reagiert hat, sondern dass Evolution
1:31:00–1:31:02
quasi Problemlöser entwickelt hat.
1:31:03–1:31:08
Also das ist genau dieses. Also es gibt nicht irgendwie, was reaktiv ist,
1:31:08–1:31:12
sondern Leben ist halt da und will halt was machen, wo ist das Problem,
1:31:12–1:31:14
wo ist das Problem, wo ist das Problem.
1:31:15–1:31:20
Und das finde ich halt irgendwie so, dieses Extreme, also dieses Rausgehen und,
1:31:20–1:31:26
und das dann halt auch entsprechend ins Doing umzusetzen und dann halt wieder
1:31:26–1:31:28
so sein Ziel dabei erfüllt.

Mehr

"Als verkündet wurde, daß die Bibliothek alle Bücher umfasse, war der erste Eindruck ein überwältigendes Glücksgefühl." - Jorge Luis Borges (Die Bibliothek von Babel)

Wir nähern uns verspielt dem komplexen Thema Künstliche Intelligenz. Jorge Luis Borges' Kurzgeschichte "Die Bibliothek von Babel" aus dem Jahr 1941 dient als Wippe von Zufall und Sinn. Ted Chiangs "Catching crumbs from the table" aus dem Jahr 2000 als Seilbahn mit der die Menschheit von ihrer eigenen KI abgehängt wird. Natürlich reden wir kurz über Filme (Terminator, War Games, Dark Star, A.I.) und zufälligerweise über William Gibsons "Mona Lisa Overdrive". So bringen wir uns in die richtige Schwingung, um die Quantenvibrationen in unseren Mikrotubuli zu spüren, die uns -- so eine Hypothese des Nobelpreisträger Sir Roger Penrose -- mit dem Bewusstsein des Universums verbinden könnte.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Micz Flor
0:00:04–0:00:05
Warum wolltest du nicht unbedingt hierher?
Florian Clauß
0:00:07–0:00:15
Weil ich auf der einen Seite dachte Das ist ein ganz guter Ort zwischen uns.
0:00:16–0:00:22
Und auf der anderen Seite ist es so ein Teil, den wir noch nicht irgendwie begangen
0:00:22–0:00:26
haben, weil wir häufig unsere Strecken kreuzen.
0:00:27–0:00:35
Und auf der dritten wollte ich noch mal so ein bisschen anknüpfen an all die
0:00:35–0:00:41
Siedlungsgeschichten von Berlin und hier durch die Taut Siedlung gehen.
0:00:41–0:00:47
Hallo und herzlich willkommen bei eigentlich Podcast Folge 19.
0:00:48–0:00:56
Heute bringt uns Mitch eine Geschichte mit und wir knüpfen auch wieder an an die Episode davor.
0:00:56–0:01:04
Es wird um künstliche Intelligenz gehen und ich übergebe dir das Wort Mitch,
0:01:04–0:01:05
weil du willst sicher noch,
0:01:06–0:01:08
ein paar Worte verlieren zu der
0:01:08–0:01:13
vorherigen Folge und wie die jetzt in Beziehung zu dieser Folge stehen.
0:01:14–0:01:20
Vielleicht noch nachtragen, um zu sagen, dass wir jetzt eine 4teilige Serie
0:01:20–0:01:25
über künstliche Intelligenz angelegt haben.
0:01:25–0:01:29
Also heute der zweite Teil und es folgen dann zwei weitere Teile.
0:01:29–0:01:33
Aber erst mal viel Spaß mit dieser Episode.
Micz Flor
0:01:34–0:01:38
Es klingt so, als ob ich jetzt einen Vortrag halte, aber ich hoffe das Gegenteil.
0:01:38–0:01:42
Ich habe ehrlich gesagt dieses Mal ein bisschen das Seminar mäßig vorbereitet.
0:01:42–0:01:43
Mit Gruppenarbeit also.
Florian Clauß
0:01:43–0:01:45
Ja, Ich bin Gruppe A.
Micz Flor
0:01:44–0:01:49
Aber ja, ich sage, du bist dick. Wir sind dann die Gruppe. Ich ermutige dich.
0:01:51–0:01:56
Die letzte Folge, die hat es dann doch in den Podcast geschafft.
0:01:56–0:02:00
Zuerst dachte ich Oh, das geht gar nicht. Ich hatte mir eine Rippe gebrochen.
0:02:00–0:02:03
Flo hat mich an dem gleichen Abend noch ins Krankenhaus gefahren.
0:02:03–0:02:07
Das war mir gar nicht klar, dass sie gebrochen ist. Ich hatte bloß unglaubliche
0:02:07–0:02:14
Schmerzen, immer wieder mal und konnte mich auch nicht so frei bewegen und hatte Luftnot.
0:02:17–0:02:20
Das ist jetzt alles wieder besser. Ich fühle mich irgendwie sehr präsent.
0:02:21–0:02:23
Und habe dann aber entschieden, die Folge doch reinzunehmen.
0:02:23–0:02:27
Und dann wurde aus dieser einen künstlichen Intelligenz Folge jetzt irgendwie ein Vierteiler.
0:02:27–0:02:32
Als wir drüber gesprochen haben und das letzte war zuerst eben so ein Scheitern.
0:02:32–0:02:36
Und während ich mir das dann so angehört habe, habe ich gesagt Nee, irgendwie.
0:02:36–0:02:41
Gerade wenn ich auf diesen Komplex von Maschinenlernen, künstliche Intelligenz und.
0:02:44–0:02:50
Ja, wie soll ich sagen. Auch so Hybridmodelle zwischen Algorithmen basierten
0:02:50–0:02:52
und Deep Learning Modellen.
0:02:53–0:02:56
Wenn ich darüber nachdenke, dann ist dieses Thema Liebe immer was? Was?
0:02:58–0:03:04
Was mir so dazukommt. Also das ist dann, ich bin ja Psychologe, Psychotherapeut,
0:03:06–0:03:09
und vor dem Hintergrund habe ich halt oft dieses Gefühl, dass gerade die Entwicklung,
0:03:10–0:03:13
innerhalb der Biografie, gerade auch der frühen Kindheit, das ist irgendwie,
0:03:13–0:03:19
alles nicht wirklich ein Faktor ist, Wenn man über Lernen spricht,
0:03:19–0:03:24
da vielleicht dann sogar in der Weise, welche Folge du hast.
0:03:24–0:03:28
20 Ich habe dann 21 in der Folge 21 mehr. Da möchte ich über die Entwicklung
0:03:28–0:03:30
des Selbst als Simulation sprechen,
0:03:32–0:03:35
und deshalb ist aber die letzte Folge dann so drin geblieben,
0:03:35–0:03:40
weil ich fand es einfach sehr deutlich, wie sehr der Körper einen Einfluss hat
0:03:40–0:03:41
auf kognitive Prozesse.
0:03:42–0:03:47
Und man muss dazu wissen, dass ich In dem Moment, wo ich diese Folge vorgetragen
0:03:47–0:03:51
habe, war ich irgendwie der Meinung, dass das schon alles irgendwie so ganz gut ist.
Florian Clauß
0:03:53–0:03:57
Es war. Ich meine es. Ich. Es war auch gut. Ich habe mich. Ich habe es dann
0:03:57–0:03:59
auch nochmal angehört im Nachhinein.
0:03:59–0:04:02
Und ich finde, wir haben da schon so ein paar grundlegende Sachen,
0:04:02–0:04:05
die wir gibt neuronale Netze.
Micz Flor
0:04:06–0:04:10
Ich glaube, ein großes Thema ist diese Frage. Nach Motivation. Nach.
0:04:12–0:04:16
Nach Voraussagen, die man so macht, die man fällt. Hypothesenbildung usw..
0:04:17–0:04:24
Und ich war einfach so in meinem Körper und Schmerz eingesperrt,
0:04:24–0:04:26
dass ich mich zwar normal fühlte,
0:04:27–0:04:31
aber das war ein relatives Gefühl in diesem Raum, in dem ich da war.
0:04:32–0:04:34
In meinem Leib war ich irgendwie nicht.
0:04:35–0:04:39
Frei genug. Wirklich fand ich andere Leute mitzureißen und ich fand es auch
0:04:39–0:04:43
echt interessant, wie du auch immer so geknickt wurdest und am Ende dann sagt,
0:04:43–0:04:45
Ich fahr dich jetzt ins Krankenhaus.
0:04:45–0:04:48
Das ist ja nicht unbedingt das Ende, was man sich so wünscht.
0:04:49–0:04:52
Ja gut, dann hatten wir auf einmal diese Idee mit einem Vierteiler.
0:04:54–0:04:57
Dann hatte ich nochmal so ein bisschen auf einmal gemerkt, ich möchte mich vielleicht
0:04:57–0:05:00
sogar ein bisschen darstellen, Warum, warum ich das interessiert und beschäftigt.
0:05:00–0:05:04
Ich habe gerade schon gesagt, ich bin ein Psychologe und Psychotherapeut.
0:05:04–0:05:09
Ich habe also auch Psychologie studiert und inzwischen schon über 25 Jahre her.
0:05:09–0:05:16
Aber noch keine 30 Jahre habe ich auch als studentische Hilfskraft bei den Kognitionswissenschaften,
0:05:18–0:05:24
sogar in Lisp programmiert. Ich habe die Sachen aber nicht mehr gefunden.
Florian Clauß
0:05:21–0:05:25
Ach, echt? Das hatten wir schon. Das hast du mir vorgehalten.
Micz Flor
0:05:25–0:05:35
Und die Idee damals war, ein System zu simulieren oder so eine Art Proof of Concept herzustellen.
0:05:36–0:05:42
Stell dir vor, acht acht Pixel, damals beim C64 oder Sinclair ZX Spectrum war
0:05:42–0:05:45
das quasi die Größe, in der alle Buchstaben abgebildet wurden.
Florian Clauß
0:05:45–0:05:53
Ja, es war ein Spike. Ich glaube, wenn wir damals beim Ich war das ist das so spricht. Sorry.
Micz Flor
0:05:47–0:05:48
Es X Bright.
0:05:54–0:05:57
Und damals war meine Aufgabe und ich habe es auch sehr genossen,
0:05:57–0:06:01
habe das sogar im Sinclair ZX Spectrum noch mal in Basic nachgebaut.
0:06:01–0:06:05
Wenn du dir vorstellst, dass ein Raster von 8,8 und du bildest da Buchstaben
0:06:05–0:06:09
drauf ab, dann kannst du ja verschiedene Quadrate auf diesem Blatt.
0:06:10–0:06:16
Kannst du sagen, wenn da wirklich was erkennbar ist, dann muss das quasi entweder
0:06:16–0:06:18
Buchstabe A oder irgendwas sein.
Florian Clauß
0:06:19–0:06:25
Okay, es gibt quasi schon so ein Muster, was dann halt so ein Matching Score
0:06:25–0:06:31
hat. Und wenn das quasi über rechte, das ober rechte Quadrat dann gefüllt ist,
0:06:31–0:06:34
dann kann es kein n sein, sondern es ist vielleicht ein Haar.
Micz Flor
0:06:34–0:06:37
Ja, oder wenn es eben nicht gefüllt ist. Wenn man sich zum Beispiel einen Tee
0:06:37–0:06:38
vorstellt, dann ist oben die erste
0:06:38–0:06:42
Reihe komplett schwarz und in der Mitte irgendwie auch schwarz runter.
0:06:42–0:06:47
Das heißt, wenn ganz unten links weiß ist, 100 % weiß, dann kann es kaum ein
0:06:47–0:06:51
Tee sein. Wenn es schwarz ist, dann könnte es zum Beispiel ein Haar oder ein
0:06:51–0:06:52
A oder andere Sachen sein.
0:06:52–0:06:57
Und dann haben wir halt bestimmte Bereiche, haben halt bestimmte Gewichte.
0:06:57–0:07:01
Das heißt, du kannst dann, manche sind aussagekräftiger als andere und so kannst,
0:07:01–0:07:04
dir vorstellen, dass man da diese Gewichte verrechnen kann und dann kann man
0:07:04–0:07:08
so Wahrscheinlichkeiten aufstellen. Wahrscheinlich ist es zu 98 % ein Haar.
0:07:09–0:07:11
Vielleicht ist es aber auch ein A usw.
0:07:12–0:07:17
Und das ist so der frühe Anfang. Und es gab damals natürlich auch schon neuronale
0:07:17–0:07:21
Ideen und so, aber es gab viel wie das, was ich beschrieben habe,
0:07:21–0:07:25
der Versuch, dass man als erstes das löst, das Problem,
0:07:26–0:07:31
und dann versucht ein Programm zu bauen, was aufgrund dieser mentalen Leistung
0:07:31–0:07:35
des Lösens des Menschen dann bestimmte Wahrscheinlichkeiten runterrechnet.
0:07:36–0:07:39
In diesem Beispiel kann ich natürlich dann immer mal gucken,
0:07:40–0:07:45
meine Kamera, wie genau erkennt ihr die Buchstaben und kann das dann matchen
0:07:45–0:07:46
mit meinen Gewichten und kann das optimieren?
0:07:47–0:07:51
Ich kann da vielleicht sogar eine Schleife einbauen, dass die Software selber checkt, was besser ist.
0:07:51–0:07:57
Das wäre dann schon fast so eine Lernaufgabe. Das wär dann die Rückmeldung.
0:07:58–0:08:00
Also super Learning. Das habe ich letztes Mal erklärt.
0:08:02–0:08:07
Und es war aber immer noch damals oft so und es ist auch heute bei vielen Sachen,
0:08:07–0:08:09
so es gibt einen Algorithmus, es gibt eine Lösung.
0:08:10–0:08:15
Und heute bei diesen Deep Learning assoziativen neuronalen Netzen,
0:08:16–0:08:22
da ist es halt oft so, dass es von oben erst mal keinen Algorithmus drauf gibt, sondern,
0:08:23–0:08:30
das System wird bereitgestellt und fühlt sich dann war schön hier und fühlt
0:08:30–0:08:31
sich dann von ganz alleine mit,
0:08:32–0:08:35
Verbindung, Vernetzung und ist dann immer besser in der Lage,
0:08:35–0:08:39
auch bestimmte Dinge zu erkennen. Punkt. Da mach ich jetzt mal eine Klammer zu.
Florian Clauß
0:08:39–0:08:47
Vielleicht mal in kurzer Zeit. Wir sind ja, wir reden beim Laufen und im Laufen sozusagen.
Micz Flor
0:08:45–0:08:47
Im Laufen laufen.
Florian Clauß
0:08:48–0:08:53
Und wir gehen auch hier so bestimmte Trades durch Berlin ab.
0:08:53–0:08:57
Und wie schon gesagt, wir sind hier in der Bruno Taut Hufeisensiedlung.
0:08:57–0:09:05
Sieht man dann später bei unserem Track auf Komoot und wir finden auch ein paar
0:09:05–0:09:07
Bilder zu der Hufeisensiedlung, die wir gemacht haben.
0:09:08–0:09:14
Wollte ich immer so als kleinen Sidekick. Alles unter eigentlich Podcast D Kann
0:09:14–0:09:18
man sich die Tracks runterladen und nochmal anschauen auf kommod.
0:09:18–0:09:19
Aber hier ist es auch wirklich.
0:09:20–0:09:24
Ich finde es so ein bisschen, wenn man das ich will nicht zu lange auswalzen,
0:09:24–0:09:29
aber so ein bisschen so zur Waldsiedlung hat man so ein ähnliches heimeliges.
Micz Flor
0:09:28–0:09:34
Hey, da müsste die Peter Behrens die mit dem Bärenfell über dir Auf jeden Fall. Es ist.
Florian Clauß
0:09:29–0:09:30
Gefühl, aber unheimlich.
Micz Flor
0:09:35–0:09:39
Es ist sehr ähnlich ihr allerdings noch hat man so ein bisschen das Gefühl,
0:09:39–0:09:44
dass Architektinnen dazu neigen, manchmal den Blick von oben zu machen.
0:09:44–0:09:48
Also hier hatte ich mehr das Gefühl, das ist auf dem Reißbrett entstanden, bei Behrens Was?
0:09:48–0:09:51
Ja, total schön, diese leichten, mäandernden Fronten.
Florian Clauß
0:09:51–0:09:55
Ja, also ich meine, das gehört auch nicht zum Kern der Tauziehen.
0:09:55–0:09:58
Das ist der Kern ad hoc, genau nachher durch die Tauziehung.
0:09:58–0:10:01
Und kommen wir den Taut Autos vorbei. Was ich auch.
Micz Flor
0:10:00–0:10:03
Und das hat auch die taz und das war doch was, was ich da auch angesprochen
0:10:03–0:10:08
hatte, wo wir die diesen Wasser Boiler da geholt hatten den.
Florian Clauß
0:10:07–0:10:14
Genau. Genau das haben wir hier geholt. Wir gehen quasi die die ganzen Laufwege
0:10:14–0:10:18
unserer Haushaltsgeräte ab. Waschmaschine?
Micz Flor
0:10:18–0:10:23
Also eben waren wir noch in den 90er Jahren mit Lisp und dann waren wir in den
0:10:23–0:10:26
Nullerjahren mit der Tauschsiedlung.
0:10:27–0:10:34
Gut, ich habe ja schon gesagt, dass es so ein bisschen seminarmäßig vorbereitet habe und,
0:10:35–0:10:39
habe mir dann überlegt, ich weiß nicht, wie es dir geht, aber dieses Es ist,
0:10:39–0:10:43
total spannendes Thema, aber auch so ein mächtiges Thema, wo ich total schüchtern
0:10:43–0:10:47
werde und denke, hoffentlich hört das keiner und gleichzeitig möchte ich so viel dazu sagen.
Florian Clauß
0:10:46–0:10:52
Aber kannst du das Thema noch mal so quasi in einem Satz zusammenfassen?
Micz Flor
0:10:52–0:10:55
Ja, also ich weiß noch nicht, wie die Folge heißen wird, aber was ich machen
0:10:55–0:11:00
möchte, ich möchte eher so ein bisschen Gedankenspiele machen, um.
0:11:02–0:11:07
Hintenrum so ein bisschen Grenzen aufzuzeigen oder über seine Gedankenspiele
0:11:07–0:11:10
so interessante Fragen herauszufinden.
0:11:10–0:11:19
Ähm, wo mögliche Grenzen von einem sehr programmiertechnischen Denken her sein könnten.
0:11:20–0:11:23
Also natürlich ist eine ganz große Grenze, die werden wir überhaupt nicht besprechen.
0:11:23–0:11:27
Ist Energieeffizienz also diese immer größer werdenden?
0:11:27–0:11:32
Also Dali II ist ja ein Riesending und macht super geile Ergebnisse und lustig und viel Spaß.
0:11:32–0:11:37
Aber es ist halt so einfach energiemäßig, jenseits von allem,
0:11:37–0:11:39
was unser Gehirn so irgendwie kann.
0:11:39–0:11:43
Und irgendwie ist das Gehirn ja so ein so ein Richtwert, wo man scheinbar hin
0:11:43–0:11:46
will. Auch das ist ein eigenes Thema. Für meine nächste Frage,
0:11:46–0:11:49
also diese menschliche Blick auf alles, was wir da gerade erforschen.
Florian Clauß
0:11:48–0:11:54
Ich werde es auch aufgreifen. Hier wird viel über bio bioelektrische Systeme reden.
Micz Flor
0:11:50–0:11:52
Ja, okay, das ist auch cool.
0:11:54–0:11:58
Da bin ich gespannt. Also jetzt geht es mir dann eher so ein bisschen darum,
0:11:58–0:12:00
damit zu spielen, dass wir die jetzt mal angehen.
0:12:00–0:12:05
Und das erste, was ich jetzt als in meiner kleinen Seminarübung bereit habe,
0:12:05–0:12:12
würde ich es von Jorge Luis Borges eine Kurzgeschichte, die heißt Die Bibliothek von Babel.
Florian Clauß
0:12:12–0:12:20
Ah ja, die kenne ich ja. Er wird sie vorlesen, nicht?
Micz Flor
0:12:12–0:12:16
Ich weiß nicht, ob du die kennst von 1941.
0:12:18–0:12:22
Borges ist ein. Ich habe so ein. Nein, ich glaube, das ist nämlich gar nicht
0:12:22–0:12:24
so hilfreich, weil da kommen wir gleich auf.
Florian Clauß
0:12:23–0:12:25
Okay, Wir können jetzt über die Fragen Sie.
Micz Flor
0:12:26–0:12:29
Ja, und die Zusammenfassung ist bestimmt auch gut.
0:12:31–0:12:39
Also, der argentinische Schriftsteller und Bibliothekar veröffentlichte 1941 eine Kurzgeschichte.
0:12:39–0:12:45
Und diese Kurzgeschichte ist einfach mal so Es gibt in der ich,
0:12:45–0:12:49
wie ich sie jetzt quasi aufbaue, als Gedankenspiel.
0:12:49–0:12:52
Es gibt, sagen wir mal, ein Fest umschrieben, eine Größe von einem Buch,
0:12:52–0:12:57
sagen wir 100 Seiten mit 80 Zeilen und jede Zeile hat 80 Zeichen.
0:12:59–0:13:04
Und dann kann man ja rein theoretisch iterativ das durchlaufen lassen und könnte
0:13:04–0:13:13
quasi alle möglichen Buchstabenfolgen, die es gibt, in ein Buch dieses Ausmaßes hineintun.
0:13:13–0:13:15
Wir können es auch verkürzen, ich kann sagen nur zehn Seiten.
0:13:16–0:13:17
Das sind dann wahrscheinlich keine.
0:13:17–0:13:22
Natürlich keine Romane mehr, aber Kurzgeschichten oder Papers oder sonst was.
0:13:23–0:13:28
Und und diese Bibliothek, die ist genau so etwas.
0:13:28–0:13:31
Die hat dann noch so ein architektonisches Spiel drum herum,
0:13:31–0:13:34
wo auch viel reingedeutet wurde in den Text. Aber das brauchen wir jetzt nicht,
0:13:35–0:13:38
sondern wir beschäftigen uns einfach mit diesen Büchern.
0:13:38–0:13:42
Da gibt es unendlich viele Bücher. Nein, es gibt endliche Bücher,
0:13:42–0:13:46
weil wir wissen ja, wie viele Zeichen im Alphabet sind und wir wissen,
0:13:46–0:13:50
wie viel Zeichen so ein Buch kommen, wenn wir es denn mal ausrechnen.
0:13:50–0:13:52
Wahrscheinlich gefühlt unendlich viele.
0:13:53–0:13:57
Aber wenn man dieses Gedankenspiel und dann kannst du irgendwann einsteigen,
0:13:57–0:14:00
ich fang schon mal an, wenn man dann in dieser Geschichte so rein liest,
0:14:00–0:14:03
dann ist es halt so ganz interessant, weil die Bibliothekare,
0:14:04–0:14:08
die sind mit dieser Bücherei irgendwie konfrontiert und versuchen die zu sortieren.
Florian Clauß
0:14:09–0:14:12
Ich habe es jetzt noch nicht ganz verstanden. Was? Was? Es gibt eine.
Micz Flor
0:14:12–0:14:17
Diese Bibliothek ist voller Bücher. Und jetzt einfach Ich reduziere es mal ein
0:14:17–0:14:20
bisschen. Wir sagen mal, jedes Buch hat 20 Seiten.
0:14:22–0:14:25
80 Zeilen und 80 Zeichen pro Zeile.
Florian Clauß
0:14:25–0:14:28
Es ist völlig randomisiert. Oder ist das.
Micz Flor
0:14:28–0:14:33
Und in dieser Bücherei sind alle möglichen Zeichen kombiniert zu hören drin.
Florian Clauß
0:14:31–0:14:33
Okay. Okay. Verstehe. Jetzt.
Micz Flor
0:14:33–0:14:39
Das heißt, man weiß sofort unglaublich viel davon ist einfach Bullshit.
0:14:39–0:14:42
Macht erst mal auf den ersten Blick überhaupt gar keinen Sinn.
0:14:43–0:14:49
Und dann ist es so, dass in diesen Büchern dann ist man fast 1/3 dieses.
0:14:49–0:14:50
Diese Bibliothek ist verbrannt.
0:14:51–0:14:56
Das heißt 1/3 aller Bücher weg. Aber die Bibliothekare waren gar nicht so alarmiert
0:14:56–0:14:59
deswegen, weil es gab eigentlich ja immer noch fast alles.
0:14:59–0:15:04
Da gab es die gleichen Geschichten, gab es immer noch in 100000 facher Ausfertigung
0:15:04–0:15:07
mit mit Rechtschreibefehlern, aber man konnte sie immer noch lesen.
0:15:07–0:15:17
Es gibt ganz viele Texte, die sind, ähm, die sind falsch geschrieben und sind
0:15:17–0:15:20
einfach schlecht redigierte Versionen von besseren Texten.
0:15:20–0:15:25
Es gibt Kurzgeschichten, wo es ums Gleiche geht. Manche erzählen die Geschichte besser als andere.
0:15:25–0:15:31
Es gibt aber auch zum Beispiel genau ein Buch, in dem nur Leerzeichen drin sind. Da ist gar nichts drin.
0:15:32–0:15:36
Und genau ein Buch, das nur den Buchstaben A auf der ersten Seite genau in der Mitte hat.
0:15:37–0:15:41
Aber es gibt ziemlich viele Bücher, in denen nur der Buchstabe A drin ist.
0:15:43–0:15:46
Das heißt, du merkst, wie man so anfängt, da so hineinzu denken.
0:15:47–0:15:49
Dann kriegt man so ein ganz komisches Gefühl.
0:15:49–0:15:52
Erst mal auf einer formalen Ebene von Redundanz.
0:15:52–0:15:58
Das heißt, ganz viele Bücher braucht es nicht. Und da sind wir zum Beispiel bei diesem Zyptding.
0:15:58–0:16:01
Man kann dann, man kriegt immer wieder eine neue Rückmeldung.
0:16:02–0:16:04
Du stellst die gleiche Frage und du kriegst einen neuen Text,
0:16:04–0:16:06
das gleiche nochmal macht.
0:16:07–0:16:09
Und das ist irgendwie in dieser Bibliothek auch schon angelegt.
0:16:10–0:16:15
In dieser Kurzgeschichte wird dann auch kurz gesagt, dass es ganz viele wissenschaftliche
0:16:15–0:16:17
Abhandlungen darin auch gibt.
0:16:18–0:16:21
Und zwar gibt es welche, die richtig sind und welche, die falsch sind.
0:16:22–0:16:25
Es gibt ganz viele alte religiöse Texte, die man gar nicht kannte,
0:16:25–0:16:29
von dem man aber auch natürlich nicht weiß, ob die irgendwie echt sind.
0:16:29–0:16:31
Aber dann müssen sie da sein, sonst wären sie ja nicht in dieser Bibliothek drin.
0:16:32–0:16:38
Es gibt Widerlegungen von Dingen, die jahrhundertelang geglaubt wurden,
0:16:39–0:16:41
die dann wissenschaftlich widerlegt wurden.
0:16:42–0:16:46
Es gibt ganz viele Lügen, ganz viele Wahrheiten. Also dieses,
0:16:46–0:16:52
dieses, diese Bibliothek ist voller Dinge, vor allen Dingen.
0:16:52–0:16:56
Und das ist das Verrückte daran. Auch alle zukünftigen Erfindungen.
0:16:57–0:17:01
Die wir eigentlich jetzt noch gar nicht verstehen könnten, sind da schon drin.
0:17:01–0:17:05
Du kannst also auch in die Zukunft gucken, aber wir werden es vielleicht nicht verstehen.
Florian Clauß
0:17:06–0:17:11
Okay. Darf ich nochmal mal so kurz zusammenfassen, wie ich es verstanden habe?
0:17:11–0:17:16
Dadurch, dass jetzt alle möglichen Zeichen Kombinationen in dieser Bibliothek
0:17:16–0:17:21
abgebildet sind in Form von Büchern, gibt es halt genau diese ganzen potenziellen
0:17:21–0:17:25
Entdeckungen oder Geschichten oder was auch immer die du gerade beschrieben hast.
0:17:27–0:17:30
Ähm, anders gesagt ist.
0:17:31–0:17:34
Ähm. Dadurch, dass es so eine immens hohe Zahl ist.
0:17:34–0:17:40
Das heißt im Moment hohe Zahl an nicht sinnhaften, Sinnvollen.
0:17:41–0:17:45
Es ist ja. Also da bist du dann halt auch zu einer Kurzgeschichte mit Rechtschreibfehlern kommst.
0:17:46–0:17:50
Bist du ja schon in einem. In einer Potenz, die ja verschwindend ist.
0:17:50–0:17:54
Also es ist ja eher die Frage, wie sind die Gänge in dieser Bibliothek?
Micz Flor
0:17:55–0:17:59
Ja, das ist auch so ein Thema. Es gibt eben so einen architektonischen Teil,
0:18:00–0:18:05
der da auch beschrieben ist, wie sich quasi die Bibliothekare und die Bücher
0:18:05–0:18:06
in diesen Räumen sortieren.
Florian Clauß
0:18:06–0:18:12
Also, dass du wirklich zu sinnvollen Schriften kommst überhaupt.
0:18:12–0:18:18
Also erst wenn ich diesen ganzen sinnlosen Kram weg in irgendeiner irgendwelche
0:18:18–0:18:20
anderen Räume wegsortiert.
Micz Flor
0:18:19–0:18:24
Ja, und das ist genau die Urfrage der Bibliothekare. Das müssen die selber rausfinden.
0:18:24–0:18:29
Die versuchen irgendwie ein System zu bewegen, ihre Aufgabe sinnvoll zu sortieren.
Florian Clauß
0:18:27–0:18:29
Okay. Das ist gelöst.
Micz Flor
0:18:29–0:18:32
Das ist nicht gelöst, Da sind die irgendwie dran, weil die wissen auch bei manchen.
Florian Clauß
0:18:31–0:18:34
Okay, aber das ist jetzt nicht die, dass es jetzt darum geht,
0:18:34–0:18:38
nicht bei diesem Gedankenexperiment, sondern wir haben schon so ein Substrat
0:18:38–0:18:41
von sinnvollen Schriften, wie auch immer und haben.
Micz Flor
0:18:41–0:18:43
Ja Nein. Wir können das aber auch so ein bisschen ausweiten.
0:18:43–0:18:49
Ich glaube, das Interessante ist ja auch wenn wir jetzt diese diese Tür zu JLPT
0:18:49–0:18:56
zum Beispiel öffnen, ist ja diese, diese Gefahr von Texten, die plausibel erscheinen.
0:18:57–0:19:00
Also das ist ja dann, da öffnet sich ja dann alles Mögliche,
0:19:00–0:19:05
wie ich vorhin meinte, in dem in den Texten, wo Dinge bewiesen werden,
0:19:05–0:19:10
Dinge erlogen werden, glaubhaft Dinge dargestellt werden, dann erst später widerlegt werden,
0:19:12–0:19:14
dass das alles möglich ist.
0:19:15–0:19:19
Das ist ja in gewisser Weise das, was wir mit Katie Petit gerade so erleben.
0:19:19–0:19:21
Also dass man das Gefühl hat, dass so eine.
0:19:23–0:19:26
Das ist im Prinzip wie eine komische Riesenbibliothek. Und jedes Mal,
0:19:26–0:19:32
wenn ich da noch mal Redurido klicke, dann kriege ich ein neues Buch aus dieser Bibliothek.
Florian Clauß
0:19:28–0:19:28
Er.
0:19:32–0:19:36
Ja, das fand ich von dir auch sehr gut in der letzten Folge beschrieben,
0:19:36–0:19:39
obwohl da dieser Druck auf deinen Rippen war.
0:19:40–0:19:46
Aber diese, diese Vehemenz, die Kreativität dann mit diesem Ich aber weiß es
0:19:46–0:19:50
ganz genau und ich sagte dir das jetzt wie es ist. Ja, also das finde ich halt
0:19:50–0:19:54
irgendwie, ja, ich habe dann auch mal ein bisschen mit dem Rum gespielt oder mit der wie auch immer.
0:19:55–0:20:00
Und hatte dann auch immer das Gefühl, der weiß genau Bescheid.
Micz Flor
0:20:00–0:20:05
Ja, ja, das ist wirklich. Ich glaube, das war so der Neuntklässler,
0:20:05–0:20:08
der versucht, obwohl er nicht gelernt hat, irgendwie nicht durchzufallen und
0:20:08–0:20:12
denkt, wenn ich irgendwas sage, können mich nicht durchfallen lassen. So kommt einem das vor.
Florian Clauß
0:20:12–0:20:20
Und ich. Ja, hier ist es natürlich auch die Frage, ob das jetzt von den Entwicklern so als so als.
0:20:20–0:20:24
Ja, wir müssen halt gegen die Welt antreten und egal was kommt,
0:20:24–0:20:29
egal welcher Eiswind ihr ins Gesicht weht, muss immer diese Tonalität haben,
0:20:29–0:20:31
dass es halt extrem richtig ist, was du sagst.
Micz Flor
0:20:31–0:20:31
Wir.
Florian Clauß
0:20:32–0:20:34
Ich glaube das ist echt so, so ein BIOS von dem Ding.
Micz Flor
0:20:35–0:20:38
Ja, das ist. Das hatte ich. Ich weiß ehrlich gesagt gar nicht mehr genau,
0:20:38–0:20:42
aber diese. Diesen Bias mit den langen Antworten. Lange Sätze hatte ich den,
0:20:42–0:20:43
erzählt in der letzten Folge.
0:20:43–0:20:49
Denn es gibt von auf Openai. Auf der Webseite gibt es zu der Entwicklung des
0:20:49–0:20:56
Ganzen auch in einem Text diese Meldung, wo das irgendwie noch mal mitgeteilt wird,
0:20:56–0:21:00
dass die Antworten wurden halt geratet.
0:21:00–0:21:05
Das waren Leute, dass so menschliche Hirne, die gelesen und geredet haben und
0:21:05–0:21:08
das war eine Form von Feedback für die für diesen Lernprozess.
0:21:09–0:21:15
Und weil die also die Antworten, die die Sätze, die das gleiche sagten,
0:21:15–0:21:19
aber länger waren, wurden höher geratet als die, die kürzer waren.
0:21:19–0:21:20
Es gab so einen Bias für lange Sätze.
0:21:21–0:21:25
Das fand ich ganz interessant, dass man da dann, wie du schon sagst,
0:21:25–0:21:28
Bias einbauen kann, einfach in der Rückmeldung.
0:21:28–0:21:32
Und das heißt zum Beispiel in Psychologie heißt, dass der Rosenthal Effekt der,
0:21:32–0:21:36
das habe ich glaube ich auch schon mal erzählt, dass wenn du Forschern bestimmte
0:21:36–0:21:39
Mäuse gibst die halt im Labor dass er jetzt ja.
Florian Clauß
0:21:37–0:21:41
Ja, das ist sehr faszinierend. Wenn.
Micz Flor
0:21:40–0:21:45
Und das ist genau das gleiche wenn du äh ei trainierst also wenn du nur daran,
0:21:45–0:21:52
also du bist als als Forscher oder Beobachter, bist du irgendwie involviert
0:21:52–0:21:54
und hast einen Einfluss auf dieses ganze.
0:21:56–0:22:02
Ganze System. Was ich halt bei dem ZCPT interessant finde, wenn man es als Vergleich mit diesem.
0:22:02–0:22:07
Mit dieser Buches Geschichte ist halt das zukünftige und das finde ich so einen
0:22:07–0:22:10
ganz wichtigen, ganz wichtigen Punkt.
0:22:10–0:22:17
Und zwar wir haben jetzt ja das steht ja auch drin, ich glaube bis 2020 Texte
0:22:17–0:22:23
bis zu 21 wurden halt gelesen. So alles was danach war, das kann ja chipt nicht gut einordnen.
0:22:23–0:22:31
Das heißt, du wirst dort nicht zukünftige Erfindungen oder Worte oder es wird
0:22:31–0:22:34
halt nichts in der in der Bibliothek von Woche.
0:22:34–0:22:38
Da stehen ja auch Sachen drin, die erst in 2000 Jahren wahr sein werden.
0:22:39–0:22:43
Aber bei ZTP kommt so was irgendwie nicht raus.
0:22:43–0:22:48
Der Blick ist schon eher so nach hinten gewandt und ebenso leicht anbiedernd und bestimmt.
0:22:48–0:22:56
Das heißt, der versucht immer oder die versucht immer oder das Netz versucht immer dich zu bedienen.
0:22:57–0:23:00
Und das finde ich nochmal so einen ganz wichtigen Punkt.
0:23:02–0:23:06
Wenn wir in die Zukunft gucken. Also nicht nur muss man ja diese,
0:23:08–0:23:13
Deep Learning neuronalen Netze immer wieder updaten, immer wieder auch gucken,
0:23:13–0:23:16
ob irgendwelche Beweise drin sind oder nicht, was dann auch irgendwie immer
0:23:16–0:23:17
so eine Art Zeitgeist ist.
0:23:17–0:23:21
Das ist ja im Prinzip eine Diskussion, die man bei Wikipedia auch schon hatte.
0:23:24–0:23:27
Nicht nur, dass Leute bei Wikipedia halt ihre eigenen Biografien gefälscht haben
0:23:27–0:23:30
oder haben fälschen lassen oder auch schön dann lassen usw.
0:23:30–0:23:35
Aber generell welche Artikel kommen da drin vor, welche Themen werden da vorgeschlagen?
0:23:35–0:23:38
Und hier sind wir jetzt gerade in einem kleinen Zoo.
0:23:44–0:23:45
Rechtsschafe.
Florian Clauß
0:23:48–0:23:51
Ja, wir sind hier, Schloss Britz.
0:23:53–0:23:59
Es ist auch ein ganz netter Ausflugsort. Wenn du mal am Wochenende mit der Familie,
0:23:59–0:24:01
Kuchen essen gehen willst, dann hier.
Micz Flor
0:24:01–0:24:05
Weil du. Es ist wirklich wahr. Hier war ich noch nicht.
0:24:06–0:24:10
Sehr schön, was du hier schon mal konntest. Okay, gut.
Florian Clauß
0:24:08–0:24:09
Ja Kuchen ist.
Micz Flor
0:24:11–0:24:15
Genau da sind wir bei dem Motivationsthema. Was Ja auch noch in zukünftigen.
Florian Clauß
0:24:13–0:24:17
Denn genau das ist die Rewards, die Belohnung.
Micz Flor
0:24:15–0:24:16
Folgen wahrscheinlich. Ich mache mir jetzt nur noch.
Florian Clauß
0:24:17–0:24:23
Okay, also wir haben jetzt also dieser Connect zu der Bibliothek.
Micz Flor
0:24:23–0:24:28
Ja, und jetzt der Blick eben immer wieder nach hinten. So, also wir haben ja wir haben.
0:24:29–0:24:36
Ich hatte das heute Morgen eine kurze Fußnote dazu eben dieses leicht deprimierende Gefühl.
0:24:36–0:24:40
Ich saß in einem Cafe, was relativ aufgeräumt war und da lief dann halt so minimal
0:24:40–0:24:45
Electronica, Ambient Music, also Musik, wo man schon immer irgendwie so dachte,
0:24:45–0:24:48
naja, das könnte man wahrscheinlich auch einfach automatisieren,
0:24:48–0:24:49
das blubbert halt so raus im Hintergrund.
0:24:49–0:24:52
Keiner hört wirklich hin, tut einfach so gut.
0:24:53–0:24:57
Und jetzt ist es halt so weit. Es ist halt es gibt von.
0:24:58–0:25:02
Von Google hatte ich es geschickt, also sind es Soundbeispiele,
0:25:02–0:25:04
wo halt wirklich jetzt nicht mehr nur Noten generiert werden,
0:25:04–0:25:05
sondern wirklich Musiker.
0:25:06–0:25:09
Das heißt, wir gucken aber dann bei Sachen immer so nach hinten,
0:25:09–0:25:11
also wir gucken halt immer nach hinten.
0:25:11–0:25:16
Das Spannende an Musik ist ja oft, was kommt vorne raus, was ist die erste Fugazi
0:25:16–0:25:20
Platte oder meinetwegen auch die erste Bob Dylan Platte, meinetwegen auch das
0:25:20–0:25:22
erste Tschaikowsky Stück.
0:25:22–0:25:28
Das sind ja die die Momente, wo man denkt Wow, und wenn du jetzt aber all das
0:25:28–0:25:37
nimmst und das nächste in der Art oder als Melange aus zwei Dingen berechnest, dann.
0:25:38–0:25:43
Fehlt das Neue, was ich meine. Also der Blick ist immer nach hinten gerichtet.
0:25:43–0:25:47
In der Box, also mit allem, mit dem kompletten Möglichkeitsraum und Buchstaben,
0:25:47–0:25:50
ist in der Bibliothek von Borges auch die Zukunft abgebildet.
0:25:50–0:25:54
Es ist alles schon da, aber mit ZTE, BT, was ja gelernt hat,
0:25:55–0:25:57
dann ist immer nur die Vergangenheit da.
0:25:57–0:26:02
Das ist quasi das Neue. Was vorne rauskommt, ist dann eher so eine Form von Mash up.
0:26:03–0:26:08
So wie man das dann auch bei den Daily 2 Witzen in Social Media immer sieht,
0:26:08–0:26:14
wenn man dann hihihi, mach mal Big Bird von Sesamstraße auf dem Mars oder?
Florian Clauß
0:26:14–0:26:18
Aber ich glaube, da kommen wir auch auf so ein, wie soll man sagen,
0:26:18–0:26:24
so ein Designfehler bei diesem ganzen Melt Machine Learning Zeug,
0:26:25–0:26:30
drauf, nämlich dass es halt reaktiv ist.
0:26:30–0:26:33
Das heißt, du brauchst Material, um Ergebnisse zu bekommen.
0:26:34–0:26:37
Also es ist ja nicht aktiv, es wird aktiv in der Interaktion,
0:26:38–0:26:40
aber es ist im Prinzip dieses Ganze.
0:26:40–0:26:46
Dieser ganze Prozess des Lernens ist ja immer mit einem Material,
0:26:46–0:26:47
was quasi vorhanden ist.
0:26:47–0:26:50
Es wird, ja, es kann sich dann auch selber Material erzeugen,
0:26:50–0:26:54
aber es ist ja auch dann wieder nur basierend auf vergangenem Material.
0:26:54–0:26:59
Also ich glaube, das ist so, das ist so auch wieder bei was dann halt da drin ist.
Micz Flor
0:26:59–0:27:00
Ja.
0:27:03–0:27:08
Ja, da mach ich hier mal kurz einen Schnitt. Also, das ist jetzt der erste,
0:27:08–0:27:15
der erstes erste Gedankenexperiment mit möglichen Anknüpfungspunkten zu diesem
0:27:15–0:27:17
Thema Künstliche Intelligenz.
0:27:17–0:27:27
Da ging es jetzt eben um diese, um diese, diesen gefühlt unendlichen Plausibilitätsraum.
0:27:27–0:27:33
Und die Bibliothek von Borges macht alles und deswegen aber auch ganz viel Unverständliches,
0:27:34–0:27:37
macht zum Beispiel auch jeden Roman.
0:27:37–0:27:40
Allerdings sind dann immer die dritte, 4. 05. Seite in Spanisch.
0:27:40–0:27:43
Keiner weiß warum. Also das ist ja quasi alles da.
Florian Clauß
0:27:43–0:27:47
Der älteste Teil, der meint, meint blowing. Ja, das ist so ein bisschen wie.
Micz Flor
0:27:43–0:27:45
Also so denkt ja.
Florian Clauß
0:27:48–0:27:52
Mit diesem, was wir auch Kontext hatten, diese unendlichen Zahlen.
0:27:52–0:27:54
Irgendwann gibt es dann in der.
Micz Flor
0:27:54–0:27:57
Und den Kreis hinten in der Zahl PI. Ja.
Florian Clauß
0:27:55–0:28:00
Na und dann hast du Ja, du hast es. Du hast jedes Muster irgendwie da.
Micz Flor
0:27:59–0:28:00
Ja, genau.
Florian Clauß
0:28:01–0:28:05
Also insofern ist es irgendwie alles vorhanden, immanent.
0:28:06–0:28:09
Aber ich meine, auch das lässt sich ja eigentlich jetzt so berechnen.
0:28:09–0:28:14
Also man könnte man kann ja diese Bibliothek einen Computer so aufbauen, das ist ja kein Problem.
Micz Flor
0:28:14–0:28:18
Ja, ja, da muss man ja immer gucken, wie, wie viel, wie viel Energie und wie
0:28:18–0:28:21
viel Teilchen und das Universum. Dann wird ja mal gerechnet, wie viele mögliche.
Florian Clauß
0:28:21–0:28:25
Aber es gibt tatsächlich schon dieses Projekt, das Musical. Ich wollte es auch
0:28:25–0:28:28
raussuchen, dass du wirklich so einen.
0:28:28–0:28:35
Du hast alle Zeichen Kombination in einen Absatz drin und da steht halt alles
0:28:35–0:28:38
immer einmal drin. Also es gibt schon als Netzprojekt.
Micz Flor
0:28:35–0:28:36
Aber es gibt schon.
0:28:39–0:28:43
Ja, das verlinken wir. Dann musst du mir nochmal zuschieben.
Florian Clauß
0:28:43–0:28:46
Ich habe. Ich habe das für die Kontextfolge versucht zu finden,
0:28:46–0:28:47
aber ich habe es nie gefunden.
Micz Flor
0:28:46–0:28:51
Ach so, da haben wir es nicht gut. Also das ist jetzt dieses eine Ding bei ZP.
0:28:51–0:28:54
Das finde ich halt irgendwie interessant das dagegen zu halten,
0:28:54–0:28:57
weil man wird von zB bestimmt keine Rechtschreibfehler kriegen,
0:28:57–0:28:59
es sei denn man bittet drum.
0:28:59–0:29:03
Und man wird auch natürlich keinen absoluten Buchstabensalat bekommen,
0:29:03–0:29:06
es sei denn, man bittet drum. Vielleicht. Ich weiß nicht, ich habe noch nicht probiert.
0:29:06–0:29:10
Das heißt alles was man da bekommt, ist in sich plausibel. Was natürlich auch
0:29:10–0:29:15
daran liegt, weil das Chateau Petit diese relativ einfache Aufgabe hatte zu
0:29:15–0:29:20
sagen, versuche, das nächste Wort zu erraten, Das ist wohl scheinbar so,
0:29:21–0:29:24
reduziert auf das Wesentliche war war die Aufgabe.
0:29:24–0:29:27
Also es geht durch alle Texte und guck dir das an und dann versucht das nächste
0:29:27–0:29:30
Wort zu erraten und wieder das nächste wie das nächste. Merkt dir,
0:29:30–0:29:35
ob du es richtig hast oder nicht und nutze das als als Verstärker oder als Feedback.
0:29:36–0:29:37
So genau.
Florian Clauß
0:29:38–0:29:42
In einer Bibliothek ist ja quasi alles gleich gewertet gewichtet. Also da gibt es ja.
0:29:42–0:29:46
Also ich meine dieses ganze neuronale Netz usw. die sind ja,
0:29:46–0:29:52
die arbeiten ja nur mit Gewichten, mit gewichteten Funktionen und so entstehen ja diese Verknüpfung.
0:29:53–0:29:56
Also wenn in der Bibliothek bist, dann ist ja erst mal alles gleich.
0:29:56–0:30:00
Es wird ja dann quasi erst in der Benutzung und der Interaktion wird dann halt
0:30:00–0:30:04
irgendwas höher gewichtet, weil es erst mal rezipiert werden muss,
0:30:04–0:30:07
damit es halt irgendwie Sinn ergibt. Und die anderen bleiben nie halt liegen.
0:30:08–0:30:10
Also es ist ja dann eine andere Form.
Micz Flor
0:30:12–0:30:20
Das zweite ist eine Kurzgeschichte von Ted Chiang. Ich weiß nicht genau,
0:30:20–0:30:22
wie es ausspricht, dass es der,
0:30:24–0:30:30
Autor der Kurzgeschichte die Grundlage für das Drehbuch von Arrival war.
0:30:30–0:30:35
Ja, auch ein finde ich ganz toller Film. Da geht es ja auch immer.
0:30:35–0:30:39
Das ist eben auch so einer, der Gedankenexperimente baut.
0:30:39–0:30:42
Es gibt auch eine Kurzgeschichte, um die es aber nicht geht,
0:30:42–0:30:44
die ich aber auch ganz toll finde.
0:30:44–0:30:49
Die heißt The Lifecycle auf Software Objects oder so ähnlich.
0:30:50–0:30:55
Da geht es um in Anführungszeichen, künstliche Intelligenz, um so was im Prinzip wie.
0:30:57–0:31:02
Metaverse von Facebook, wo dann diese künstlichen Intelligenzen sind Haustiere
0:31:02–0:31:07
und so ein Zoologen arbeitet mit denen und es ist total spannend zu gucken,
0:31:07–0:31:12
wie sich dann in so einem Gedankenexperiment Kurzgeschichte das da durchzieht.
0:31:12–0:31:16
Die Geschichte, auf die ich jetzt allerdings verweisen möchte,
0:31:17–0:31:23
ist 2000 in Nature erschienen und die heißt Catching Crumbs from the Table.
0:31:24–0:31:31
Also Brotkrumen vom Tisch sammeln und es ist jetzt über 20 Jahre her.
0:31:31–0:31:34
Aber es geht irgendwie auch um genau das, was wir jetzt so ein bisschen spüren,
0:31:35–0:31:42
nämlich dass ja schon bestimmte Stimmen aus Bildungsapparaten,
0:31:42–0:31:43
auch Prüfungsthemen, so etwas sagen.
0:31:43–0:31:48
Wir können jetzt mit ZPBT gar nicht mehr wirklich so prüfen,
0:31:48–0:31:50
wie wir das immer gemacht haben, weil
0:31:50–0:31:54
es ist einfach nicht mehr leicht zu unterscheiden zwischen dem, was jetzt,
0:31:54–0:31:59
durch irgendeine KI erstellt wurde und dem, was jetzt ein,
0:32:01–0:32:05
Studierender oder auszubildender Auszubildende.
0:32:07–0:32:11
Erstellen kann. So. Und in diesem.
0:32:12–0:32:17
In diesem Artikel. Der geht halt damit los, dass er sagt das ist jetzt 25 Jahre
0:32:17–0:32:23
her, dass das letzte Mal ein Mensch was wirklich originäres erfunden hat und,
0:32:23–0:32:26
ein Paper publiziert hat. Weil.
0:32:28–0:32:34
Es gibt jetzt eben diese ganzen Systeme von Metakognition oder Metahuman,
0:32:34–0:32:35
das heißt, die glaube ich sogar.
0:32:36–0:32:41
Und die machen jetzt die ganze Forschung und machen diese ganzen Paper und die
0:32:41–0:32:44
haben die Menschheit schon längst abgehängt.
0:32:45–0:32:52
Also die, die Erstellung von neuem wissen, vom Paper und von diesen ganzen Wissenswissenschaften,
0:32:52–0:32:58
also Wissenschaft machen nicht mehr Menschen, die rennen dem verzweifelt hinterher.
0:32:58–0:33:04
Das hat durch die durch die Metakognition Systeme einfach so eine Beschleunigung
0:33:04–0:33:07
erlebt, dass die Menschen abgehängt sind.
0:33:07–0:33:12
Und das beste, was die noch machen können, ist, dass sie nicht mehr selber Wissen
0:33:12–0:33:17
erschaffen und eigene Papers herstellen, sondern innerhalb von publizierten
0:33:17–0:33:18
Papers, die durch den Meta,
0:33:19–0:33:23
entstanden sind, dann quasi hermeneutisch wie Bible Bible Studies,
0:33:23–0:33:26
Also gucken, in den Text gucken und versuchen, den Text zu interpretieren,
0:33:26–0:33:28
um irgendwie zu begreifen, worum es da geht.
0:33:28–0:33:32
Weil diese Metakognition natürlich inzwischen so weit schon weg ist von dem
0:33:32–0:33:37
Wortschatz, den die Menschen da hatten, dass man das interpretieren muss.
0:33:37–0:33:40
Also es gibt dann wiederum eine Form der Wissenschaft. Das finde ich auch lustig
0:33:40–0:33:47
in dem Text, dass er meint, ja, Menschen wollen scheinbar mit wissenschaftlichen
0:33:47–0:33:50
Gedanken arbeiten, das hat auch so was Spielerisches.
0:33:51–0:33:55
Das bestimmt auch was dran. Und deshalb, falls es hier gerade so ein bisschen
0:33:55–0:33:56
knistert es fängt an zu regnen.
0:33:58–0:34:03
Und deshalb werden die Menschen sich dann nicht mehr mit dem Erfinden neuen
0:34:03–0:34:06
Wissens, sondern mit der Deutung von erfundenem Wissen beschäftigen.
0:34:06–0:34:08
Fand ich irgendwie ganz spannend.
0:34:08–0:34:16
Und dann ist es nämlich auch noch so, dass die metakommunistischen Systeme einfach
0:34:16–0:34:21
um schneller arbeiten zu können, haben die diese Sprache auch eigentlich hinter sich gelassen?
0:34:22–0:34:25
Also die machen nur noch Sprache, quasi für die Menschen.
0:34:26–0:34:30
Das bleibt unklar, warum die die Menschen überhaupt noch bedienen damit.
0:34:30–0:34:33
Aber scheinbar ist es da irgendwie rein programmiert und die haben aber für
0:34:33–0:34:34
sich selbst inzwischen, dass,
0:34:36–0:34:43
die end entwickelte The Digital Neuraltransferance oder Initial Digital Transfer,
0:34:43–0:34:50
Transfer ist Übertragung aber eine andere Übertragung, also wo dann diese neuronalen Netze einfach.
0:34:51–0:34:54
Sozusagen Snapshot von sich miteinander austauschen können.
0:34:54–0:34:57
Und damit ist das ganze Wissen auch ausgetauscht, zack, zack,
0:34:57–0:35:00
zack, zack hin und her und es wird weiter gearbeitet.
0:35:01–0:35:05
Es gibt. In William Gibson gibt es, ich glaube in Mona Lisa Overdrive gibt es
0:35:05–0:35:10
so ein Bild von einem in Anführungszeichen. Cyberpunk, so hießen ja damals,
0:35:10–0:35:13
die halt dann im Cyberspace drin waren.
0:35:13–0:35:17
Es gibt so eine Form von Meltdown und da müssen die Personen dann künstlich
0:35:17–0:35:22
am Leben gehalten werden und dürfen aber auch nicht von dem Cyberspace entkoppelt werden.
0:35:22–0:35:26
Und dann werden in so ein eigenes System hineingelegt und da drin weiß dann
0:35:26–0:35:29
keiner was. Dieser Zombie quasi dann.
0:35:30–0:35:33
Oder die nennen die Vampire, weil die schlafen. Also du weißt gar nicht,
0:35:33–0:35:37
was sich da so entwickelt. Und so ähnlich ist das in dieser Kurzgeschichte auch beschrieben.
0:35:37–0:35:41
Also die dieses dieses entkoppelte Wissen schießt dann einfach,
0:35:42–0:35:47
macht einfach weiter so und das ist ja irgendwie glaube ich so eine ganz tiefe
0:35:47–0:35:49
Angst, die die Menschen auch haben.
0:35:50–0:35:53
Also dass man und da finde ich, ist es auch noch mal wichtig,
0:35:53–0:35:56
über die Definition der Begriffe und vielleicht so ein bisschen die Emotionen,
0:35:56–0:35:59
die damit verbunden sind, zu sprechen. Wenn du.
0:36:00–0:36:05
Früher von Maschinen lernen gesprochen hast. Ganz einfach.
0:36:06–0:36:08
Also es ging dann quasi darum, dass diese Maschinen etwas lernen,
0:36:09–0:36:14
dann, wenn man mal drüber nachdenkt, was da für eine Hierarchie entsteht oder für ein Bild entsteht.
0:36:14–0:36:19
Ist halt so, da ist die Maschine, die füttern wir, die ist wie so ein Hase.
0:36:20–0:36:24
Dem geben wir Sachen und der sitzt was lernen, der lernt so Tricks und dann
0:36:24–0:36:29
macht er Sachen schön, dann kann er auf einmal neue Sterne finden oder was auch immer.
0:36:29–0:36:37
Aber der wird quasi von uns als lehrende Einheit gefüttert, um dann was ganz
0:36:37–0:36:39
spezielles, Besonderes zu tun.
0:36:39–0:36:43
Wenn man nicht mehr von Lernen spricht, sondern von Intelligenz spricht,
0:36:43–0:36:47
dann geht es nicht mehr in Rezeption von Informationen und damit zu arbeiten
0:36:47–0:36:49
und die zu lernen, sondern es geht ja schon um Produktion.
0:36:49–0:36:56
Intelligenz erstellt ja Lösungen, findet Wege in Systemen und so und ich glaube,
0:36:56–0:36:58
das macht manchmal auch so ein bisschen bedrohlich.
0:36:58–0:37:03
Die Intelligenz, die produziert und das, das können wir nicht immer kontrollieren.
0:37:03–0:37:09
Vorher war es halt so, da war diese Maschine Schüler oder Schülerin und jetzt
0:37:09–0:37:15
auf einmal ist diese Maschine Professor oder Professorin. Und da tun wir uns
0:37:15–0:37:16
dann irgendwie ein bisschen schwer damit.
0:37:17–0:37:22
Das heißt, die Angst ist in dieser Geschichte auch schon so ein bisschen mit eingebaut.
0:37:22–0:37:29
Sobald wir diese Pandora Büchse öffnen, kriegen wir das nicht mehr eingefangen,
0:37:29–0:37:32
und dann machen die so ihr Ding und hängen total ab.
0:37:32–0:37:36
Das Beste, was dem Menschen bleibt, ist halt eben die Texte zu studieren und
0:37:36–0:37:43
versuchen herauszufinden, was diese neuen Entitäten da geschrieben haben.
Florian Clauß
0:37:43–0:37:49
Aber so ein bisschen halt noch wie so eine Softvariante von der Geschichte von Terminator.
0:37:49–0:37:52
Es gibt ja dann auch den Willen der Maschine. Wahrscheinlich ist das dann wirklich
0:37:52–0:37:54
so ein Asimov sches Gesetz.
0:37:55–0:37:59
Du darfst den Kommunikationsweg zu den Menschen nicht verlieren.
0:37:59–0:38:02
Das ist halt implementiert. Und dadurch müssen die sich halt wieder.
0:38:02–0:38:07
So, das finde ich jetzt ganz schön. Okay, wir müssen jetzt nochmal das irgendwie übersetzen.
0:38:07–0:38:09
Wahrscheinlich geht dann auch ganz viel verloren, weil dann,
0:38:09–0:38:15
wenn du innerhalb einer Sprache, eines Sprachsystem, eines Systems quasi bestimmte,
0:38:15–0:38:18
Beweise führst, dann ist ja dann die Übersetzung wieder so das,
0:38:18–0:38:21
was es dann nicht ganz abbilden kann.
0:38:22–0:38:26
Also kann man auch irgendwie schön weiterdenken. Aber klar, wenn die Maschinen
0:38:26–0:38:29
so den Menschen abhängen oder dann halt auch feindlich sind,
0:38:30–0:38:31
das dann halt die Menschen ausgeht.
0:38:31–0:38:34
Das ist ja so dieser Bad Dream of,
0:38:37–0:38:39
Artificial Life oder Intelligenz.
Micz Flor
0:38:39–0:38:43
Ja, und dass die Entente dann entscheidet, dass es nicht so viele Menschen geben
0:38:43–0:38:46
sollte, weil die Ressourcen sonst knapp werden, zum Beispiel und dann irgendwie,
0:38:47–0:38:48
Trinkwasser vergiftet oder so.
Florian Clauß
0:38:48–0:38:51
Ja oder wir, oder? Dann ist man ja auch wieder bei DAX da,
0:38:52–0:38:58
dass die selbst die Selbsterkennung als Bombe und in dem Moment okay,
0:38:59–0:39:03
ich bin und ich muss explodieren und damit ist alles ausgelöscht.
Micz Flor
0:39:02–0:39:04
Wir. Ein.
Florian Clauß
0:39:04–0:39:10
Das ist ja von Carpenter, der ich glaub in den 70er, da es da auch sehr schön science.
Micz Flor
0:39:10–0:39:12
Er ist, glaube ich, der. War das nicht der gleiche Drehbuchschreiber,
0:39:12–0:39:15
der dann lange nichts und dann Alien geschrieben hat?
0:39:16–0:39:19
Ich glaube wir sind ein Film Podcast. Muss man noch mal recherchieren?
Florian Clauß
0:39:16–0:39:21
Das kann ich nicht verstehen. Genau so also.
Micz Flor
0:39:20–0:39:24
Ja ja. Und das zweite wo du es jetzt sagst, was auch wieder Film Podcast ist,
0:39:24–0:39:25
ist natürlich Wargames.
0:39:25–0:39:30
Ich glaub von 83 oder 84 oder so wo. Ich glaube es war der E.T.
Florian Clauß
0:39:27–0:39:28
Er.
Micz Flor
0:39:30–0:39:35
Darsteller auch der da sich in Computer reingehackt hat und dann auf einmal,
0:39:35–0:39:39
ohne es zu wissen Zugang auf die ganzen atomaren Sprengköpfe hat.
0:39:39–0:39:44
Und dann durch diese Schleife, dass der Computer mit sich selbst spielt,
0:39:44–0:39:49
simuliert, erstmal merkt, dass der Krieg wie bei Tic Tac Toe einfach keine Gewinner hat.
0:39:49–0:39:54
Das ist immer unentschieden und es ist immer alles ausgelöscht und dann der
0:39:54–0:39:58
Computer selber dann mitteilt Also es ist aber langweilig, kann man nicht was anderes spielen?
0:40:01–0:40:04
Ja, und das andere ist aber eben in dieser Ted Cheng Geschichte ist natürlich
0:40:04–0:40:10
auch noch ein anderes Denken drin. Das ist dann eher so ein Denken. Ähm.
0:40:12–0:40:15
Ist. Also, das ist das, was du das letzte
0:40:15–0:40:19
Mal. Das ist mir ein bisschen zu metaphysisch. Also, da geht es darum,
0:40:21–0:40:25
es ist ein Riesenthema und vielleicht kommt es auch in deiner Folge von dem,
0:40:25–0:40:27
was ich weiß, immer rein. Aber diese Frage.
0:40:30–0:40:33
Wir reden immer von Bewusstsein. Und wir sind ja sehr menschenzentriert.
0:40:33–0:40:35
Also, wenn wir uns zum Beispiel vorstellen, dass Aliens auf uns kommen,
0:40:35–0:40:38
dann dürfen die aussehen wie sie wollen, uns egal. Aber wir müssen mit uns reden wollen.
0:40:39–0:40:45
Und es ist kaum vorstellbar, dass das Intelligenzniveau eines Laubfrosch irgendwie
0:40:45–0:40:49
jetzt mit einem UFO hier ankommt und Rubber Rubber mit anderen Fröschen spricht.
0:40:49–0:40:50
Aber wir können mit dem nicht reden. Irgendwie sind wir.
0:40:51–0:40:54
Wir sehen uns ja trotzdem. Quasi sowas als Zentrum also.
0:40:55–0:40:57
Und andersherum, wenn wir auf einen anderen Planeten fliegen,
0:40:57–0:40:59
dann wollen wir jetzt auch nicht nur Frösche sehen.
0:40:59–0:41:04
Das wäre natürlich. Also das wäre. Für Biologen wäre es natürlich unglaublich,
0:41:04–0:41:06
was da für Lebewesen sind.
0:41:06–0:41:11
Aber in Wahrheit ist es halt wieder so ein ganz, ganz kleine Nische,
0:41:12–0:41:14
mit der wir halt irgendwie zu tun haben wollen.
0:41:14–0:41:19
Also da geht es ja gar nicht darum, dass wir gibt uns irgendein Zeichen von
0:41:19–0:41:20
der Intelligenz da draußen,
0:41:21–0:41:26
und das ist zum Beispiel als Film Podcast, dem Ei von Steven Spielberg so schön
0:41:26–0:41:30
beschrieben als Bildsprache ganz zum Schluss, wo dann die Erde schon längst
0:41:30–0:41:34
irgendwie zugefroren oder sonst was ist, kommen dann so,
0:41:34–0:41:38
strichähnliche Wesen schon fast an, wo man nicht weiß, sind das Roboter oder
0:41:38–0:41:41
wirkliche Wesen, die in Anführungszeichen biologisch sind,
0:41:42–0:41:51
die dann das alles so völlig lautlos und schwerelos und auch im positiven Sinne
0:41:51–0:41:53
kraftlos mit Leichtigkeit zu zerlegen und abstellen? Ich weiß nicht,
0:41:53–0:41:54
ob du dich daran erinnern.
Florian Clauß
0:41:54–0:42:00
Ja, aber ist er nicht auch? Treffen da nicht auch auf diesen Roboter?
Micz Flor
0:42:00–0:42:01
Den Jungen. Genau.
Florian Clauß
0:42:00–0:42:03
Wir sind Kinder und können die dienen dann halt reaktivieren?
0:42:03–0:42:06
Oder haben wir Zugang zum Gedächtnis? Da war doch irgendwas.
Micz Flor
0:42:06–0:42:10
Ja, also wenn ich mich recht erinnere, ist es dann auch eher wieder ein psychologisches
0:42:10–0:42:11
psychotherapeutisches Thema.
0:42:11–0:42:17
Natürlich hier als Analogie so abgehandelt Dieses Kind, dieser Roboter,
0:42:20–0:42:24
der, wie du sagst, die Bombe muss explodieren, der wird ja gebaut,
0:42:24–0:42:29
damit Eltern, die keine Kinder haben können, ein Kind haben können.
0:42:30–0:42:34
Und diesem Kind muss man dann den Knopf hinten irgendwie drücken und ein bestimmtes
0:42:34–0:42:35
Gedicht aufsagen, der Satz erst sagen und dann.
Florian Clauß
0:42:35–0:42:36
Und dann sind die konditioniert.
Micz Flor
0:42:36–0:42:44
Naja, eher im printed geprägt. Also dann sind die geprägt auf unendliche Liebe.
Florian Clauß
0:42:39–0:42:40
Ja, er.
Micz Flor
0:42:44–0:42:48
Für diese Frau und das macht die auch. Und dann kriegen sie trotzdem noch ein Kind.
Florian Clauß
0:42:44–0:42:44
Er.
Micz Flor
0:42:49–0:42:53
Und dann ist es so, dass natürlich dieser Roboter dieses Kind überlebt alle,
0:42:54–0:42:59
und ähm und ist immer voller Liebe auf der Suche nach seiner Mutter,
0:42:59–0:43:01
die dann schon lange, lange tot ist.
0:43:01–0:43:06
Und er endet dann, indem er irgendwie von einem Karussell, irgendwie ganz tief
0:43:06–0:43:10
im Wasser, ich weiß nicht wieder hin kommt und sieht dann immer sozusagen ein.
Florian Clauß
0:43:07–0:43:09
Ja, genau das ist so!
Micz Flor
0:43:10–0:43:13
Abbild, fast ein Abbild seiner Mutter als,
0:43:14–0:43:17
Karussell, Holzfigur oder Galionsfigur.
0:43:17–0:43:21
Und da wird er dann gefunden.
0:43:22–0:43:28
Und mit diesem Roboter kommunizieren dann diese anderen Wesen und geben ihm dann, bevor er,
0:43:29–0:43:34
erlischt, Wie man immer sagen möchte, geben ihm glaube ich die Möglichkeit noch,
0:43:34–0:43:39
ein Bild zu generieren von also aus seinen Gedanken heraus generieren die dann
0:43:39–0:43:41
noch mal diese Frau, also seine Mutter.
Florian Clauß
0:43:40–0:43:45
N. Stimmt also. Er kriegt dann quasi seine seine Wunscherfüllung dann.
Micz Flor
0:43:45–0:43:52
Ja, ja, aber eben natürlich auch. Und das ist dann auch nur als mentales Bild.
0:43:52–0:43:56
Also er kriegt es ja nicht als reale Person, sondern er darf das noch mal erleben,
0:43:56–0:43:58
die machen ihm das sozusagen.
0:43:59–0:44:03
Ja, und bei bei Ted Chang ist halt, denke ich auch in dieser Geschichte,
0:44:03–0:44:08
wenn man auf diese Metapher nicht mit der völligen panpsychische Ebene geht,
0:44:08–0:44:11
wo Bewusstsein im Universum schon angelegt ist.
0:44:11–0:44:15
Und es ist nicht so, dass komplexe Systeme Bewusstsein herstellen,
0:44:15–0:44:20
sondern dass das Bewusstsein da ist und komplexe Systeme es einfacher haben, damit zu interagieren.
0:44:21–0:44:24
Dann ist es so, dass in dieser Vorstellung.
0:44:26–0:44:31
Die Komplexität der Systeme immer weiter geht und dann geht die durch die Menschheit durch.
0:44:32–0:44:35
Also wir werden abgehängt von diesen Systemen, die wir entwickelt haben.
0:44:35–0:44:39
Aber das ist einfach nur Teil des großen Plans. Die Dinosaurier sind weg.
0:44:39–0:44:42
Dann kommen die Säugetiere, die Säugetiere bringen uns. Dann sind wir weg.
0:44:42–0:44:45
Und dann gibt es noch diese Maschinen und das Bewusstsein geht immer weiter.
0:44:46–0:44:48
Und das ist halt dann irgendwie so einer, wie du meintest.
0:44:49–0:44:51
Was man deine Worte eine zu.
0:44:55–0:44:58
Was hast du gesagt? Du hattest ein Adjektiv gesagt. Nein, das ist mir jetzt,
0:44:58–0:45:01
zu esoterisch, hast du gesagt.
0:45:01–0:45:05
Esoterisch ist aber eine.
0:45:07–0:45:14
Legitime Wissenschaft. Roger Penrose vertritt seit Jahrzehnten die die Hypothese,
0:45:14–0:45:18
dass eben und da ist Ja, also da muss man.
0:45:18–0:45:22
Ich finde das total spannend das Thema weil es wird natürlich auf der Philosophie
0:45:22–0:45:28
auch schon immer hin und her gefragt mit dem Mind Body Problem oder so. Das war ja dann auch.
Florian Clauß
0:45:28–0:45:32
Es ist auch natürlich im Buddhismus, genau wie du es beschreibst.
0:45:32–0:45:39
Da ist halt immer Bewusstsein im Raum da und das ist insofern auch da eine Annahme.
0:45:39–0:45:42
Aber natürlich um esoterisch. Es klingt ein bisschen abwertend,
0:45:42–0:45:47
aber es ist vielleicht eher, um es wissenschaftlich quasi begehbar zu machen.
0:45:47–0:45:53
Muss jetzt irgendwie dann halt müssen halt diese diese Wiederholbarkeit usw.
0:45:53–0:45:57
Die muss ja dann halt auch für dieses Feld und dann wird es halt schwierig.
0:45:58–0:46:02
Dann sind das halt erst mal so Theorien muss man dann gucken,
0:46:02–0:46:06
ob man dafür quasi Experiment oder eine Belegbarkeit findet.
0:46:06–0:46:09
Das ist halt so glaube ich, die Herausforderung. Aber erst mal finde ich total,
0:46:09–0:46:11
interessant als Gedankenexperiment.
Micz Flor
0:46:12–0:46:15
Also da wäre halt für diese Idee. Von so einem Drang des Bewusstseins,
0:46:15–0:46:18
sich im Universum auszubreiten, sollte man annehmen, so etwas gäbe es.
0:46:19–0:46:22
In dieser Kurzgeschichte sind die Menschen haben so ihre Schuldigkeit getan
0:46:22–0:46:26
und geben diesen Staffelstab weiter. So wie die Bakterien an die Mehrzeller usw..
Florian Clauß
0:46:25–0:46:30
Genau. Aber was auch dahinter hängt, und das versuche ich dann auch.
0:46:30–0:46:34
Wenn ich demnächst über mein Thema rede ist.
0:46:34–0:46:39
Es gibt natürlich immer diese total menschzentrierte Einordnung von,
0:46:41–0:46:47
Bewusstseinsstufen und das ist auch eigentlich nicht haltbar,
0:46:47–0:46:50
sondern der Mensch sieht sich immer als Krone von irgendwas.
0:46:50–0:46:54
Aber er ist ja quasi auch nur ein Zustand von vielen in der Biologie,
0:46:55–0:46:57
die völlig gleichwertig sind.
0:46:57–0:47:03
Also ich glaube, das ist halt so auch die Herausforderung, da in der Wissenschaft
0:47:03–0:47:06
oder in der neuen, dass man das halt so ein bisschen zurücknimmt und guckt auch
0:47:06–0:47:09
auf Systeme, die halt Intelligenz dann anders,
0:47:11–0:47:14
so rausbringen oder produzieren können.
Micz Flor
0:47:14–0:47:18
Ja, da bin ich echt gespannt drauf. Deine Folge.
0:47:19–0:47:23
Was ich aber auch noch dazu sagen wollte ich finde, da kommen bei dieser,
0:47:23–0:47:27
bei dieser pan psychischen Seite kommen auch so zwei Dinge zusammen, die glaube ich.
0:47:31–0:47:36
Irgendwie zusammenzugehören scheinen. Aber ich weiß nicht, ob sie das wirklich
0:47:36–0:47:40
tun. Das eine ist eben das, ähm, das gibt ja gerade so einen.
0:47:40–0:47:45
So, nun haben wir auch schon so ein großes Interesse an Quantenmechanik,
0:47:45–0:47:48
Quantenphänomene und so was. Ein Tanglemünd.
0:47:48–0:47:51
Diese enzymatischen Sachen habe ich schon angesprochen. Photosynthese.
0:47:51–0:47:53
Man entdeckt jetzt immer mehr,
0:47:53–0:47:59
auch im biologischen System, dass da Quantenthemen drin sind und diese,
0:48:00–0:48:06
die Biologie hat unglaublich viele Energieprobleme, zum Beispiel solche banalen
0:48:06–0:48:11
Dinge wie wenn eine Mitose stattfindet, dann muss der Zellkern sich komplett
0:48:11–0:48:15
abrollen und diese abgerollte dann die Kette sich öffnen.
0:48:15–0:48:19
Das passiert nicht quasi, das passiert gleichzeitig in unterschiedlichsten Stellen,
0:48:19–0:48:22
dann werden die ja verdoppelt und dann trennt sich die ganze Zelle,
0:48:22–0:48:26
dann werden zwei Zellen draus und wenn man das einfach mal durchrechnet,
0:48:26–0:48:28
dann muss die Reibungshitze, die da entsteht,
0:48:28–0:48:32
in der Geschwindigkeit, in der es passiert, dann müsste eigentlich alles irgendwie verdampfen.
0:48:32–0:48:36
Das kriegt man gar nicht so durchgerechnet in einem Newtonschen Modell.
0:48:36–0:48:41
Das heißt, man, man geht jetzt inzwischen davon aus, dass ähnlich wie bei enzymatischen
0:48:41–0:48:48
Prozessen, das halt auf einer Quantenebene, diese diese Energierechnung funktionieren kann,
0:48:50–0:48:54
wo die Reibung in dem Sinne keine Rolle mehr spielt und auch.
Florian Clauß
0:48:54–0:48:56
Okay, das ist auch fett.
Micz Flor
0:48:57–0:49:01
Und aber auch andere, ganz andere Phänomene. Dieses Quantum an Tanglemünd,
0:49:01–0:49:03
wo man einfach wirklich merkt, ja,
0:49:03–0:49:09
es ist da, wir können sogar schon anfangen, damit zu experimentieren und Informationsübertragung,
0:49:09–0:49:13
über gewisse Distanzen komplett sicher zu machen, weil wir anhand von Teilchenbewegungen,
0:49:14–0:49:20
die keine nicht miteinander senden, in unserer Welt, aber die miteinander in ten Geld sind,
0:49:21–0:49:25
dass die verschiedene Spins herstellen können.
0:49:25–0:49:28
Wenn wir das in der einen Seite drehen, dann kann man in der anderen Seite lesen,
0:49:28–0:49:30
was wir da machen. Das gibt es ja.
Florian Clauß
0:49:29–0:49:34
Aber vielleicht ist es auch viel fließender. Also die Quantenwelt war immer
0:49:34–0:49:39
so eine abgegrenzte Welt, die ab einer Quantenlänge anfängt und hat nichts mit unserer Welt zu tun.
0:49:40–0:49:45
Aber vielleicht sind diese Phänomene viel, viel stärker implementiert,
0:49:45–0:49:51
irgendwo, ohne dass so viel gebräuchlicher als man das irgendwie so wahrnimmt.
0:49:51–0:49:56
Natürlich eine extremst kleine Wirkung, die das erzeugen kann.
Micz Flor
0:49:56–0:49:59
Ja, ja, aber das ist. Ja, genau.
Florian Clauß
0:49:57–0:49:58
Fotosynthese oder sowas.
0:49:58–0:50:02
Aber es sind so Kern Kernfunktionen, die das bedient.
0:50:03–0:50:09
Und auf der anderen Seite ist natürlich unsere Newtonschen Welt mit Körper, Schwerkraft und Kugel.
Micz Flor
0:50:09–0:50:12
Ja, genau. Mit Abrisskugeln. Also.
Florian Clauß
0:50:09–0:50:17
Es ist halt irgendwie alles viel greifbarer und viel erlebbarer,
0:50:17–0:50:23
weil unser ganze Sensorik ist halt darauf ausgerichtet, dass wir halt in dieser Welt quasi,
0:50:25–0:50:27
Veränderungszustände wahrnehmen.
Micz Flor
0:50:27–0:50:30
Ja, ich glaube, der große wichtige springende Punkt ist halt,
0:50:30–0:50:34
dass man immer mehr Quantenmechanik auch in biologischen Systemen entdeckt,
0:50:34–0:50:40
während man lange Zeit dachte, das geht nur bei null Temperaturen im absoluten Vakuum und so was. Also.
0:50:40–0:50:47
Aber nein, es geht eben auch mitten in mitten in der Biologie. Es ist.
Florian Clauß
0:50:46–0:50:52
Genau. Genau das war er. Das war damals alles unkontrollierbar. Aber.
Micz Flor
0:50:47–0:50:54
Es ist warm, es ist feucht, es ist alles unkontrollierbar. Aber genau da passiert Quanten. Das heißt.
Florian Clauß
0:50:53–0:50:57
Ich glaube, das ist genau das war ja für uns beide so dieser Punkt.
0:50:57–0:51:01
Diese Wahrnehmung beim Rotkehlchen, das Erdmagnetfeld.
0:51:01–0:51:05
Das ist halt ein Sinnesorgan, ist aber eher in der Photosynthese.
0:51:05–0:51:09
Ist ja auch genauso ohne Photosynthese ja nix auf der Welt quasi.
Micz Flor
0:51:09–0:51:13
Genau das Rotkehlchen. Ist er wirklich? Man kann das irgendwie beobachten.
0:51:13–0:51:15
Man kann es irgendwie mit mathematisch auch erfassen.
0:51:16–0:51:17
Man kann es aber noch nicht wirklich erklären.
Florian Clauß
0:51:17–0:51:18
Nee, genau das ist.
Micz Flor
0:51:18–0:51:23
Und das ist der eine Punkt. Und der andere Punkt ist eben diese Frage nach Bewusstsein.
0:51:23–0:51:27
Und wenn das zusammenkommt, dann ist halt so Penrose, der halt irgendwie sagt,
0:51:27–0:51:30
mit den Namen des anderen Wissenschaftlers habe ich jetzt vergessen,
0:51:30–0:51:37
der sagt, es gibt in den Zellen Mikrotubuli heißen die oder so gibt es solche säulenähnlichen,
0:51:37–0:51:40
Gefüge, von denen man nicht genau weiß, was die sollen.
0:51:40–0:51:45
Und jetzt ist halt die Hypothese und da gibt es wohl auch schon erste Befunde
0:51:45–0:51:52
dazu, dass da drin eben so Quanteneffekte irgendwie passieren.
0:51:52–0:51:57
Also ob das so ein Tor ist zu einem, zu einem, zu einer anderen Ebene,
0:51:57–0:51:59
zu einer neuen Ebene von Vernetzungen, die.
Florian Clauß
0:51:58–0:52:00
Wo jetzt? Ich hab den.
Micz Flor
0:52:00–0:52:03
Das ist diese immer noch dieser Punkt jetzt von dem Psychischen,
0:52:03–0:52:08
dass es Bewusstsein ist ein Zustand.
Florian Clauß
0:52:07–0:52:09
Also. Ach, krass. Also.
Micz Flor
0:52:09–0:52:11
Das ist quasi eine Gegebenheit.
0:52:11–0:52:15
Bewusstsein ist da und dieses Bewusstsein wird jetzt über Zellen.
Florian Clauß
0:52:12–0:52:13
Ja, und dieses.
Micz Flor
0:52:15–0:52:18
Über diese Tubular Sachen angedockt.
Florian Clauß
0:52:16–0:52:20
Äh, okay. Okay. Das ist. Das ist interessant. Ja, das ist.
0:52:20–0:52:24
Also. Also, das heißt, das ist so quasi das Tor zur Quantenwelt.
0:52:24–0:52:29
Und irgendwo ist es in der Raum Raum als Information vorhanden,
0:52:30–0:52:35
aber in einer in einer Welt kodiert, die wir nicht so erschließen können,
0:52:35–0:52:37
aber die physikalisch irgendwo messbar ist.
Micz Flor
0:52:38–0:52:42
Und damit lege ich dann eine kurze Spur in meine nächste Folge.
0:52:42–0:52:45
Wir haben es jetzt ein bisschen vorgeplanten Vierteiler, wo ich dann noch mal
0:52:45–0:52:49
über Freud und seine Theorie der Triebe im ausgehenden 19.
0:52:49–0:52:52
Jahrhundert reden möchte, wo er eigentlich was ähnliches versucht hat,
0:52:52–0:52:55
nämlich die geistige und die materielle Welt miteinander zu verknüpfen.
0:52:55–0:52:58
Und genau das sehe ich jetzt bei Penrose irgendwie auch.
0:52:58–0:53:03
Also dadurch, dass jetzt diese diese fast schon spirituelle Quantenwelt öffnet,
0:53:03–0:53:06
versucht der herzustellen eine,
0:53:06–0:53:10
physikalischen Raum innerhalb von physikalischen Gesetzen ist es möglich,
0:53:10–0:53:15
etwas nicht physikalisches zu beschreiben, was wir können, dann wir können dann
0:53:15–0:53:19
auf einmal das Spirituelle, das Geistige, die das Seelische, die Liebe.
0:53:19–0:53:23
Das können wir dann auf einmal über über so eine Öffnung, so einen Quantenraum hinein machen.
0:53:23–0:53:27
Also das ist so ein ganz interessanter, ganz interessanter Knick,
0:53:27–0:53:30
weil du hast das ganz oft gerade in der Bewusstseinsforschung,
0:53:30–0:53:35
dass in den experimentellen Settings, egal ob das jetzt bei Neurologen ist oder,
0:53:35–0:53:37
auch beim Machine Learning, also,
0:53:37–0:53:42
es gibt immer vorneweg eine Definition und diese Definition limitiert.
0:53:45–0:53:50
Den Raum. Dann ist zum Beispiel Bewusstsein nur etwas, was so und so und so und so ist.
0:53:50–0:53:53
Und diese ganzen Sachen, die können wir eben nicht messen, deshalb lassen wir sie weg.
0:53:54–0:53:57
Und wenn du das dann halt so einschränkst, dann baust du ein Experiment,
0:53:57–0:54:04
das darauf auch noch aufbaut und das sich dann auch beweisen lässt oder widerlegen lässt.
0:54:04–0:54:09
Aber diese ganzen Annahmen, die du vorneweg machen musst, um der Prozess selbst
0:54:09–0:54:13
operationalisieren, um einen kompletten Möglichkeitsraum herunterzubrechen,
0:54:13–0:54:15
zu operationalisieren auf,
0:54:16–0:54:20
Zusammenhänge, die du dann messen kannst, das ist halt.
0:54:21–0:54:27
Das ist halt der Kniff, der in der rein physikalischen, medizinischen,
0:54:27–0:54:28
biologischen Arbeit gemacht wird.
0:54:28–0:54:33
Und wenn man dann so was wie Bewusstsein oder Liebe auf einmal oder Glaube da.
Florian Clauß
0:54:33–0:54:35
Ja, Ja.
Micz Flor
0:54:34–0:54:39
Mit reinnehmen möchte, dann muss man eigentlich diesen physikalischen Raum verlassen.
0:54:40–0:54:45
Aber Penrose hat dann irgendwie gesagt, das ist Quanten und sofort denkt man,
0:54:45–0:54:46
ja, das kann sein, gute Idee.
Florian Clauß
0:54:46–0:54:50
Ja, ja, aber man muss jetzt doch noch mal so ein bisschen was zurücknehmen,
0:54:50–0:54:54
weil momentan wird ja auch ganz viel in diesem esoterischen Bereich,
0:54:54–0:54:59
wo dir alle möglichen Schummeleien angeboten wird, da wird ganz viel mit der Quanten.
Micz Flor
0:54:59–0:55:00
Der Quanten Healing.
Florian Clauß
0:55:00–0:55:05
Ja, es wird ganz viel. Also es ist so, das ist so, egal was das wird und es
0:55:05–0:55:09
ist auch total hoch akzeptiert da in der neuen Quanten, die werden ja auch,
0:55:09–0:55:14
also da wird es ja auch völlig quer, also völlig falsch benutzt und,
0:55:15–0:55:21
das ist dann wieder diese Nähe zur Esoterik, wo man gucken muss wie, wie eng ist das Feld,
0:55:22–0:55:25
man kann, kann halt ein bisschen gefährlich werden.
0:55:25–0:55:30
Da aber ist auf jeden Fall ja gut, dann kann es irgendwie so ein bisschen rein verlagern.
Micz Flor
0:55:30–0:55:33
Aber es ist auf alle Fälle absehbar. Also wenn ich jetzt mal wieder vor dem
0:55:33–0:55:38
Hintergrund der Neurologie jetzt als Psychologe da reinschaue und du guckst,
0:55:38–0:55:41
diese Entwicklung an, dann gab es ja lange, lange Zeit.
0:55:43–0:55:47
Überhaupt erst mal so eine ganz grobe Karte vom Gehirn, die man eher dann im
0:55:47–0:55:50
ersten Weltkrieg verfeinert hatte, weil dann Leute Teile weggeschossen bekamen.
0:55:50–0:55:53
Dann konnte man auf einmal sehen Ach guck mal, der kann nicht mehr sprechen,
0:55:53–0:55:54
der kann nicht mehr sehen.
0:55:54–0:55:58
Da wurde das Gehirn kartographiert, das heißt, das Gehirn wurde dann erst mal
0:55:58–0:56:03
so etabliert, auch als Zentrum von diesen ganzen kognitiven Prozessen und Areale
0:56:03–0:56:06
wurden identifiziert. Das war ein Riesenfortschritt.
0:56:06–0:56:10
Gruseliger Hintergrund, aber so war das nun mal so. Und dann kamen halt später
0:56:10–0:56:13
diese Mikroskopitechnik usw.
0:56:13–0:56:16
Rein. Dann hat man irgendwann eben diese Zellen im Gehirn, die Neuronen,
0:56:16–0:56:22
dann konnte man Elektrizität messen, dann hatte Elektrizität auf einmal eine ganz wichtige Rolle.
0:56:22–0:56:27
Dann hat man die Synapsen Chemie entdeckt. Die hatte dann auf einmal eine ganz wichtige Rolle.
0:56:27–0:56:31
Und wir sprechen auch heute natürlich bei künstlicher Intelligenz von Neuronen,
0:56:31–0:56:35
also auch da wieder eigentlich so eine menschlich menschliche Zentrum Idee,
0:56:36–0:56:40
weil wir denken so. Deshalb nennen wir es mal Neuron.
0:56:40–0:56:44
Und manchmal, wenn man sich dann Texte dazu durchliest, wo das verglichen wird,
0:56:44–0:56:48
Biologie und künstliche Intelligenz, ist es manchmal verwirrend.
0:56:48–0:56:51
Wo man manchmal ein bisschen den Faden verliert. Geht es um biologischen Neuronen
0:56:51–0:56:55
oder geht es hier um neuronale Netz Neuronen?
0:56:56–0:57:00
Aber auf jeden Fall ist es klar, dass.
0:57:02–0:57:06
Quantenmechanik einen Einfluss haben wird. Man wird es einfach finden, das ist ja klar.
0:57:07–0:57:10
Bei allem, was man gefunden hat, Elektrizität, Chemie, alles was man bis jetzt,
0:57:11–0:57:13
so erschlossen hat, ist auch wirksam in Zellen.
0:57:14–0:57:17
Quantenmechanik wird auch wirksam sein, gerade bei neuronalen Zellen, deren.
0:57:19–0:57:27
Die Leitung von Signalen passiert über Ionenkanäle, die Spannungsunterschiede
0:57:27–0:57:32
anhand an der Myelinschicht entlang transportieren, bis hin zu Synapsen und Synapsen wird dann.
0:57:32–0:57:36
Durch diese ankommenden elektrischen Impulse.
0:57:36–0:57:40
Werden dann Transmitter ausgeschüttet oder geblockt. Dann gibt es halt die Möglichkeit,
0:57:40–0:57:43
mit Psychopharmaka das zu beeinflussen,
0:57:43–0:57:48
die Aufnahme zu hemmen von solchen synaptischen Wirkstoffen und so.
0:57:48–0:57:52
Und das heißt, wir sind sowieso schon an dem Punkt, wo es jetzt nur noch eine
0:57:52–0:57:57
Frage der Zeit, bis man merkt, dass bestimmte Prozesse am besten erklärbar sind.
0:57:57–0:58:01
Wenn man Quantenmechanik auch damit rechnet, dass wird passieren,
0:58:01–0:58:03
wie in anderen Bereichen auch.
0:58:03–0:58:08
Aber das heißt in keiner Weise, dass es jetzt so ein Quantum brain and the magic
0:58:08–0:58:12
healing of Quantum power, das kann man wahrscheinlich gut verkaufen.
0:58:12–0:58:14
Vielleicht sollten wir die Folge so nennen.
Florian Clauß
0:58:15–0:58:16
Quantenheilung.
Micz Flor
0:58:16–0:58:20
Weil dann gibt es so ein bisschen eine Zielgruppe. Vorbei, aber viele Klicks, aber wenig.
Florian Clauß
0:58:21–0:58:26
Hin. Künstliche Quantenintelligenz. Quellen? Nein. Quanten.
Micz Flor
0:58:28–0:58:32
Dann mache ich hier nochmal einen Strich und wollte jetzt noch den dritten Block.
0:58:33–0:58:40
Da geht es jetzt um Musik, habe ich vorhin schon erwähnt, aber in einem etwas anderen Zusammenhang.
0:58:41–0:58:45
Was wir jetzt gerade sehen, was was eben auch so sehr überzeugend ist,
0:58:45–0:58:49
zum Beispiel bei Dali II, wo Bilder entstehen. Oder inzwischen wird auch Musik
0:58:49–0:58:51
hergestellt, nicht mehr nur Noten oder MIDI Signale.
0:58:52–0:58:56
Es entstehen Texte, also es wird quasi Content produziert in allen möglichen
0:58:56–0:58:59
Formaten. Demnächst werden wir auch die ersten Trickfilme sehen usw..
0:59:00–0:59:06
Es geht immer auch um eine Form von Narration, von Semantik,
0:59:06–0:59:08
weil sonst kriegen wir das ja alles auch. Da sind wir halt Menschen,
0:59:08–0:59:09
Rezipienten, Wir kriegen sie
0:59:09–0:59:12
irgendwie nicht gecheckt, wenn es nicht auch irgendwas erzählt, das Bild.
0:59:14–0:59:20
Ganz am Anfang haben wir über die Bibliothek gesprochen, in der alle möglichen
0:59:20–0:59:23
Texte sind. Also wir wollen ja schon Struktur und Ordnung haben,
0:59:23–0:59:24
damit wir es überhaupt sehen können.
0:59:25–0:59:34
Also Signal, Noise, Ratio und ein Bereich, in dem schon sehr früh viel Forschung passieren konnte,
0:59:35–0:59:40
weil es einerseits narrativ, auch emotional, menschlich und sowas ist,
0:59:40–0:59:46
aber andererseits eben nicht wie ein Ölgemälde oder ein eine Band, die spielt.
0:59:47–0:59:51
War halt in dem Musikbereich, weil es war da schon möglich mit Noten.
0:59:51–0:59:54
Du kannst dir vorstellen, es gibt ja auch midi viele Noten, die hintereinander
0:59:54–0:59:58
kommen, zum Beispiel das, was ZPBT gemacht hat.
0:59:58–1:00:03
Man könnte zum Beispiel sagen Rate was die nächste Note ist.
1:00:03–1:00:06
So wie man jetzt gesagt hat, Rate was das nächste Wort ist.
1:00:06–1:00:11
Und der Raum von Noten ist dann eher wie so eine kleine Bücherei in der Woche
1:00:11–1:00:15
ist Geschichte, also man hat weniger Noten, man hat unterschiedliche Längen
1:00:15–1:00:16
der Noten, aber weniger Noten.
1:00:16–1:00:22
Und man hat dann schon in den 80er Jahren Systeme gebaut, die anhand dieses
1:00:22–1:00:30
Rate die nächste Note zum Beispiel Bach ähnlich oder Mozart ähnliche Stücke geschrieben haben.
1:00:31–1:00:39
Und ein Musiker und Komponist, der da drin gearbeitet hat, ist David Cope.
1:00:40–1:00:44
Und ein Paper von ihm glaube ich noch aus den 80er Jahren. 84,
1:00:45–1:00:50
83 oder 84 waren die ersten Versuche, wie man.
1:00:54–1:00:58
Entweder über eine reine Kreativität, neuronale Netze Idee,
1:00:59–1:01:05
Melodien erstellen kann, indem man sagt Rate die nächste Note oder dass man
1:01:05–1:01:10
zuerst Modelle entwickelt, dass man versucht, erst mal so top down mäßig Modell
1:01:10–1:01:14
zu entwickeln, wo zum Beispiel drinsteht, wenn Bach.
1:01:16–1:01:21
Ein Lied für die Kirchenorgel geschrieben hat, dann dann macht er gerne Symbole
1:01:21–1:01:26
der Kreuze, wo zwei Linien Melodien aufsteigend sich so kreuzen,
1:01:26–1:01:28
weil das war dann seine Hommage an Gott.
1:01:28–1:01:31
Es geht um den Glauben und den sieht man dann sogar auf dem Notenblatt.
1:01:31–1:01:36
So was weiß man und das kann man ja dann als Modell herstellen und kann dann
1:01:36–1:01:42
einem System, das Noten schreibt, sagen okay, wenn geht, dann machen wir so
1:01:42–1:01:44
Kreuze rein, dann sieht es nach Bach aus.
1:01:44–1:01:54
Und damals hat sich schon gezeigt, dass die glaubwürdigsten und auch effizientesten, also von der,
1:01:54–1:02:00
von der Ausbeute her und auch von der Zeit her die Systeme, die waren,
1:02:00–1:02:07
die beides kombiniert haben, also quasi top down und aber auch einfach Deep
1:02:07–1:02:08
Learning ähnliche Strukturen.
1:02:09–1:02:14
Und ich finde, das ist so eine Sache, die man wahrscheinlich jetzt wieder als
1:02:14–1:02:16
Pendel bald finden wird,
1:02:17–1:02:23
weil jetzt gerade bei Dali II wurde ja das gleiche System einfach noch mal abgesgeeilt,
1:02:24–1:02:27
und hat dann auf einmal deutlich bessere Ergebnisse erzielt.
1:02:27–1:02:29
Und das ist ja auch total erstaunlich.
1:02:30–1:02:35
Aber man hat eben immer wieder auch diese Schreckensmeldungen von Autounfällen, weil halt.
1:02:36–1:02:42
Da gibt es dann so immer gibt es ja immer so Beispiele, zum Beispiel ein Einlernmodelle,
1:02:42–1:02:46
auch so Deep Learning für Autofahrassistenz,
1:02:46–1:02:49
wo das Auto auf der Brücke auf einmal große Probleme bekommen hat,
1:02:49–1:02:53
weil es bei allen Material bis jetzt immer nur Straßen hatte,
1:02:53–1:02:55
wo rechts und links noch Land war.
1:02:56–1:02:58
Eine Brücke war auf einmal was, keine Ahnung wo ich bin.
1:02:59–1:03:05
Ein System, was Material bekommen hat, um Leberflecken zu identifizieren,
1:03:05–1:03:07
die kann zurückgehen sind oder nicht.
1:03:07–1:03:12
Und dann hat sich rausgestellt, dass es bei den medizinischen Bildern mit Kanzer
1:03:12–1:03:16
gen Leberflecken oft so linealer daneben gab. Und das hat dann einfach quasi,
1:03:16–1:03:18
geschummelt wie so Neuntklässler.
1:03:18–1:03:23
Wenn Lineal drauf ist, dann ist es wahrscheinlich Krebs und hat das dann eben
1:03:23–1:03:26
hat das Diskriminierende, war halt eben das Lineal und.
Florian Clauß
1:03:26–1:03:30
Ist schon irgendwie. Aber das war dann auch schon Auszeichnungsmerkmal.
1:03:31–1:03:33
Und in dem Moment, wo das Lineal drauf ist, ist die Wahrscheinlichkeit,
1:03:33–1:03:35
dass es richtig sitzt, dann.
Micz Flor
1:03:35–1:03:40
Es ist schön. Es ist ein ganz schön weit gekommen. Dieser Leberfleck. Es gab auch einen.
1:03:41–1:03:45
Einen älteren Datensatz von Fotos von Gesichtern aus Medien.
1:03:46–1:03:49
Zurzeit, als George W. Bush noch Präsident war.
1:03:49–1:03:53
Und aus diesem Fundus stellte sich heraus, dass diese Gesichtserkennungssoftware,
1:03:53–1:03:57
sehr gut darin war, George W. Bush zu erkennen, aber nicht sehr gut war,
1:03:58–1:04:00
andere Gesichter zu diskriminieren.
1:04:00–1:04:04
Also das sind auch wieder so Bikes, die mit dem Material reinkommen und.
1:04:07–1:04:14
Ja, und das ist eben die Schwachstelle, wird oft gesagt, eben von diesen Deep
1:04:14–1:04:17
Learning Neuralnetzwerken, die.
1:04:18–1:04:23
Ähm, die keine Modelle mitbringen.
1:04:23–1:04:27
Und diese Modelle wiederum, das ist dann wieder, um ganz am Anfang der Folge zu sprechen.
1:04:27–1:04:31
Das sind dann eher die Systeme, wo man sich erst mal hinsetzt und sich quasi,
1:04:31–1:04:36
dann eine Lösung ausdenkt und die als Algorithmus vorgibt und dieser Algorithmus,
1:04:36–1:04:40
top down reguliert, in dem in dem Moment, wenn nur Network irgendwie läuft,
1:04:41–1:04:44
dann dem irgendwie assistiert Leitplanken aufzeigt.
1:04:44–1:04:49
Ich meine das jetzt sprichwörtlich nicht buchstäblich, aber zeigt so okay.
1:04:49–1:04:50
Nee, das kann nicht sein.
1:04:51–1:04:54
Komm noch mal zurück. Oder halt eben auch bestimmte Dinge abfragt.
1:04:54–1:04:57
Wenn du die 100 % sicher bist, gib mir die alle noch mal zurück.
1:04:57–1:05:00
Die will ich sehen. Oder wenn du 0 % sicher bist, gib mir die alle zurück, die will ich sehen.
1:05:01–1:05:07
Also dieses Zusammenspiel von Top down und neuronalen Netzen war wohl in dem Versuch.
1:05:09–1:05:13
Modelle zu beschuldigen, nicht Modelle, sondern Systeme zu erstellen,
1:05:13–1:05:17
die Musik komponieren, sodass es wie Mozart klingt oder so.
1:05:18–1:05:22
Die konnten anhand der Noten lernen und die besten Ergebnisse waren halt nicht
1:05:22–1:05:26
nur alle Noten zu lernen und abzubilden im neuronalen Netze,
1:05:26–1:05:28
sondern gleichzeitig auch von,
1:05:29–1:05:34
menschlicher Seite, eben Top down Modelle überstülpt zu bekommen. So.
1:05:35–1:05:40
Und jetzt gerade ist es irgendwie so, dass man mit der Rechenpower unglaublich
1:05:40–1:05:42
gut diese neuronalen Netze hochskalieren kann.
1:05:43–1:05:46
Wobei das jetzt ja auch schon wieder an Grenzen kommt. Dieses Moorsche Gesetz
1:05:46–1:05:49
von der immer kleiner werdenden Transistoren, das hat man jetzt,
1:05:50–1:05:52
da ist man so ziemlich am Ende.
1:05:52–1:05:56
Man fängt jetzt schon an die Transistoren zu stecken, so man dreidimensionalen Raum macht.
1:05:58–1:06:03
Man fängt sogar eben gerade auch für für künstliche Intelligenz an,
1:06:03–1:06:05
schon Hardware zu bauen, die sich an,
1:06:07–1:06:14
wie heißt es? Neuromorph heißt das glaube ich an biologischen Modellen orientiert,
1:06:15–1:06:20
so dass man so wie bei Grafikkarten, dass man quasi bestimmte Chips hat,
1:06:20–1:06:22
die bestimmte Dinge sehr gut können.
1:06:23–1:06:27
Und damit ist man dann auch wieder ein Rückschluss eben auf diese,
1:06:30–1:06:34
auf diese Kartographie des Geldes. Man ist dann wieder ein bisschen bei diesem Body Kognition Thema.
1:06:34–1:06:38
Es gibt dann auf einmal bestimmte Hardwareaspekte, die bestimmte Teilbereiche
1:06:38–1:06:43
der Kognition gut leisten können, die darin dann auch gerechnet werden.
1:06:43–1:06:46
Und man kann sich ja sehr gut vorstellen, so was wie Gesichtserkennung oder
1:06:46–1:06:50
Spracherkennung sind Sachen, die relativ universell und stabil über die Zeit
1:06:50–1:06:54
sind, dass die halt da sind wir bei unserer Konrad Zuse Folge,
1:06:54–1:06:58
dass die halt schon vorgegeben sind im System,
1:06:58–1:06:59
und dass man genauso wie auf einer
1:06:59–1:07:03
Grafikkarte dann alle möglichen Spracherkennung Sachen gleich da rüber.
Florian Clauß
1:07:03–1:07:07
Ja, er ist bereit. Ja, genau. Ich meine, das ist ja nichts anderes als dieser,
1:07:08–1:07:11
Chip, den auch Apple in einen zweiten Chip für sie einbaut.
1:07:11–1:07:16
Der hat genau diese diese Sachen schon in die Platine gelötet,
1:07:16–1:07:23
wo dann halt solche Sachen dann schon abgekapselt, dann als Bibliotheken vorhanden sind. Ja.
Micz Flor
1:07:23–1:07:26
Ein Fingerabdruckscanner zum Beispiel. Das kannst du ja inzwischen wahrscheinlich
1:07:26–1:07:27
in einer Hardware so lösen.
1:07:28–1:07:31
Und das ist halt so diese Sache. Das fand ich nochmal ganz interessant,
1:07:31–1:07:36
dass in den 80er Jahren über Musik, was ja auch eine emotionale Sache ist,
1:07:36–1:07:40
die künstlichen Mozartstücke haben die Menschen auch berührt und bewegt.
1:07:42–1:07:47
Dass da schon gezeigt wurde, dass beides notwendig ist.
1:07:48–1:07:51
Neuronale Netze, die einfach erst mal vorurteilsfrei lernen,
1:07:52–1:07:59
aber auch Modelle über die Welt, die das beeinflussen und damit in Austausch treten können.
1:08:00–1:08:05
Und dann eben als dritte Komponente die embedded Kognition oder bestimmte Systeme,
1:08:05–1:08:07
die spezialisiert sind auf bestimmte.
Florian Clauß
1:08:09–1:08:16
Wütend darüber. Wie soll ich wir jetzt hier rüberkommen? Ich will. Nein, du bist völlig.
Micz Flor
1:08:13–1:08:16
Ich bin jetzt. Wir machen jetzt hier Schluss. Ich meine Sie auf.
1:08:17–1:08:18
Ich würde jetzt hier mal.
1:08:21–1:08:22
Es ist jetzt so laut geworden.
Florian Clauß
1:08:23–1:08:28
Na ja, also wir können jetzt noch weitergehen. Und wir können jetzt wirklich wieder umdrehen.
1:08:29–1:08:34
Okay, sorry, das war jetzt kein guter Schluss.
Micz Flor
1:08:34–1:08:34
Ja.
1:08:37–1:08:41
Oh. Okay, dann give me to my. Aber gehen wir wieder zurück an die Straße.
1:08:41–1:08:42
Denn da war es ja dann so laut.
Florian Clauß
1:08:43–1:08:46
Wir beginnen hier hinter den Kasten.

Mehr

Während Menschen ein Leib sind, haben Maschinen bestenfalls einen Körper.

Es sollte "eigentlich" um Künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen. Doch eine gebrochene Rippe ermattet Micz zu sehr, um eine zusammenhängende Folge zustande zu bringen, eine "leibliche" Tatsache, die durch die Hintertür mit dem Thema "Künstliche Intelligenz" eng verwoben ist. Dass der Leib nämlich eine zentrale Rolle bei menschlichen kognitiven Prozessen spielt, darüber sind sich Vertreter:innen der "Embodied Cognition" einig. Wichtig ist hier der Begriff "Leib", der sich wesentlich vom "Körper" unterscheidet. Weswegen ich den deutschen Begriff der "leiblich verankerten Kognition" für "Embodied Cognition" gegenüber anderen Übersetzungen bevorzuge. Auch wenn "Leib" umgangssprachlich nur noch in theologischen Zusammenhängen eine Rolle zu spielen scheint, war etymologisch der Leib das Lebendige und der Körper der materielle, anatomische, leblose Gegenstand (vgl. im Englischen: corpse). Deshalb halten wir an dieser Folge fest und verstehen sie als Selbsterfahrung für unsere Hörer:innen, um ein Gespür dafür zu bekommen, was ein lädierter Leib dem menschlichen Denken antut. Die Frage, die daraus entstehen könnte: können "künstliche" kognitive Fähigkeiten ohne Leib überhaupt dem menschlichen Denken verwandt sein? Während Menschen ein Leib *sind*, *haben* Maschinen bestenfalls einen Körper.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß
avatar
Text2Speech
Intro

Transcript

Text2Speech
0:00:00–0:00:04
Gleich folgt die 18. Episode des eigentlich Podcasts.
0:00:04–0:00:14
Doch bevor wir beginnen, möchte ich Ihnen etwas Kontext geben und kurz verraten, was wenige Tage vor und wenige Minuten nach der Aufnahme geschah.
0:00:14–0:00:23
Mitch war drei Tage vor der Aufnahme hingefallen und dachte, er habe sich den Brustkorb geprellt. Immer wieder blieb ihm während der Aufnahme die Luft weg.
0:00:24–0:00:31
Flo machte sich deswegen Sorgen und fuhr mich im Anschluss an die Folge, die sie gleich hören werden, ins Krankenhaus.
0:00:32–0:00:37
Dort stellte sich heraus, dass dieser sich beim Sturz eine Rippe gebrochen hatte.
0:00:37–0:00:44
Es sollte eigentlich um künstliche Intelligenz, Bewusstsein und die Entwicklung des Selbst gehen.
0:00:44–0:00:51
Wie sie jedoch schon zu Beginn merken werden Mitch ist nicht sehr ausdrucksstark. Das Atmen fällt ihm schwer.
0:00:52–0:00:56
Seine körperlose Stimme weckt Mitleid und wirkt gleichzeitig abstoßend.
0:00:57–0:01:07
Flo lässt sich von der Grabesstimmung runterziehen. Erst als sich abzeichnet, dass gleich Schluss sein wird, lebt er auf, lacht und albert herum.
0:01:08–0:01:13
Warum aber soll ich mir die Folge dann anhören? Danke für die Frage.
0:01:13–0:01:24
Inhaltlich ist die Folge wenig mitreißend, formal allerdings sehr eng mit dem Thema Künstliche Intelligenz verbunden. Welche Bedeutung hat der Körper?
0:01:24–0:01:32
Besser gesagt Körperlichkeit. Noch besser gesagt der Leib für Prozesse der Kognition und des Bewusstseins.
0:01:33–0:01:40
Zwar wird diese Frage in der folgenden Episode nicht diskutiert, aber auf der Bühne des Körpers vorgespielt.
Micz Flor
0:01:41–0:01:55
Ähm. Ja. Wir, Flo und ich mit Flo nehmen mir eigentlich das podcastde 14 tägig im Netz auf dem Blog Post.
0:01:55–0:01:59
Für jede Folge gibt es immer auch noch die Spur, wo wir langlaufen.
0:02:00–0:02:05
GPS Daten werden getrackt und heute sind wir irgendwie so um nichts.
0:02:08–0:02:18
Und laufen in der Wuhlheide einfach mal so ein bisschen die Wege ab, bis die Folge fertig ist. Wir wissen nicht, ob es fertig ist.
0:02:19–0:02:21
Kann es sich nur um Stunden handeln?
Florian Clauß
0:02:22–0:02:35
Ja hallo, auch von meiner Seite. Wir sind heute in der 18. Episode von Eigentlich Podcast und diese Folge hat uns Mitchenthema mitgebracht.
0:02:35–0:02:39
Ich weiß noch nicht, worum es geht. Ich bin gespannt. Ja, wir sind hier.
0:02:42–0:02:49
Du sagst es bereits in der Wuhlheide und gehen jetzt hier. Also einer, einer einen großen.
0:02:50–0:02:54
Ich glaube, das ist hier so ein Heizungsrohre. Ein Wasserrohr entlang. Ich habe.
0:02:54–0:03:00
Was weiß ich. Ich. Ich bin gut vorbereitet, weil ich habe eine Taschenlampe dabei.
0:03:01–0:03:07
Nee, nee, nee, nee, ich bin. Ich habe eine Taschenlampe dabei, wo wir dann halt den Weg, weil ich.
0:03:07–0:03:19
Was ich jetzt auf jeden Fall vermeiden möchte, ist das, das ich auf die Seite fasst und dich dann mitnehme und wir dann wie zwei Kafka Käfer rumliegen.
0:03:19–0:03:24
Und dann kommt ein Apfel von oben, der auf uns fällt auf den Körper und wir verfaulen noch.
Micz Flor
0:03:25–0:03:31
Gerade so ein schönes Psychotherapeutenwie mit dem Käfer von Kafka kennst du ja bestimmt.
0:03:32–0:03:40
Dieses Bild hat so ein kleines Holzbett, der Käfer liegt irgendwie drauf und unten drunter sagt jemand Haben Sie mal Achtsamkeitsübungen versucht?
0:03:41–0:03:45
Oh wow, Es ist richtig nebelig, dunkel und nebelig.
Florian Clauß
0:03:45–0:03:55
Ich mache. Ich mache meine Aufnahme. Das ist, glaube ich. Also können wir hier diese, dieses Licht, diese, diese Wassertröpfchen, das Kondensat, was hier rumfliegt.
0:04:03–0:04:07
Sind einigermaßen dramatisch aus. Okay.
0:04:08–0:04:19
Somit jetzt bin natürlich gespannt und ich bin auch ein bisschen, ich will nicht sagen besorgt, aber ich möchte, dass es dir gut geht und ich hoffe,
0:04:21–0:04:25
das wird es dir mit dem Thema, das du uns mitgebracht hast.
Micz Flor
0:04:26–0:04:30
Genau. Ich versuche mal zu reden. Ich klinge vielleicht ein bisschen flacher. Manchmal bleibt mir die Luft weg.
0:04:30–0:04:36
Das ist jetzt halt einfach so.. Aber vielleicht liegt es auch an diesem immensen Hype um das aktuelle Thema.
0:04:37–0:04:45
Gleichzeitig auch meine schüchterne Selbsteinschätzung, dass es mir zwar total wichtig ist, aber, ähm.
0:04:46–0:04:52
Ja, Flo, es geht. Es soll. Es soll in diesem Gespräch um künstliche Intelligenz gehen.
Florian Clauß
0:04:53–0:04:53
Oh, okay.
Micz Flor
0:04:53–0:04:59
Und das ist natürlich ein Riesenfeld. Und gleichzeitig möchte ich das so ein bisschen einschränken.
0:05:00–0:05:09
Ich denke, das ist so ein interdisziplinäres Feld, wo ja unglaublich viele Forschungsgebiete zusammenkommen.
0:05:09–0:05:13
Dazwischen auch die Philosophie, Technik, Philosophie, moralische Themen.
0:05:14–0:05:19
Was, was? Was heißt es denn, ein künstliches Bewusstsein anzuvisieren?
0:05:20–0:05:22
Ob man das überhaupt herstellen kann, sei dahingestellt.
0:05:23–0:05:31
Die Psychologie ist natürlich involviert, die Biologie ist involviert, die teilweise auch neuronal Inspiration für Hardware liefern kann.
0:05:32–0:05:37
Natürlich die Informatik programmieren.
0:05:37–0:05:51
Das geht halt quasi vor allen Dingen darum, auch Code zu generieren, der mit unglaublich großen Datensätzen Strukturen abbildet und erstellt, die dann wiederum einen Teil der Welt erkennen können oder damit irgendwas machen können,
0:05:51–0:05:54
wo in gewisser Form dann auch nicht nur der Code selbst,
0:05:55–0:05:58
sondern diese dieses Netzwerk,
0:06:01–0:06:02
der Gegenstand ist.
Florian Clauß
0:06:02–0:06:07
Wow. Also, großes Thema hier. Respekt. Respekt.
Micz Flor
0:06:07–0:06:13
Ich will es halt ein bisschen einfangen und möchte ein bisschen die Frage stellen.
0:06:15–0:06:22
Die Psychologie ist natürlich Thema, aber die klinische Psychologie, sollte die nicht vielleicht auch Thema sein?
0:06:22–0:06:27
Wenn man interdisziplinär mit diesen Fragen der künstlichen Intelligenz umgeht.
0:06:28–0:06:34
Der Hintergrund ist der es geht ganz viel eben auch um Lernen. Ja, und die Art des Lernens, das werde ich kurz beschreiben.
0:06:34–0:06:40
Die ist jetzt gerade noch relativ brachial, ja gewitzt, aber jetzt nicht unbedingt empathisch.
0:06:41–0:06:46
Diese Maschinen werden getrimmt. Das ist jetzt kein moralisches Thema, es ist einfach so, wie es gemacht wird.
0:06:47–0:06:56
Und gleichzeitig gibt es ja gerade in der klinischen Psychologie unglaublich viele Bereiche, die sich intensiv auch mit Lernen und Entwicklungsfragen.
0:06:59–0:07:05
Auseinandergesetzt haben und in der klinischen Psychologie, gerade wenn man an diese,
0:07:05–0:07:17
hollywoodeske Idee von künstliche Intelligenz denkt, also diese dieses Thema des Sich selbst Bewußtwerdens kennt und Beijings aus künstlicher Intelligenz.
0:07:18–0:07:31
Da möchte ich den Begriff des Selbst, der jetzt auch seit über 100 Jahren in der Psychotherapie eine Rolle spielt, so ein bisschen vorstellen, weil ich glaube, das selbst ist genau dieser,
0:07:33–0:07:37
springende Punkt, der Holy Grail, dass keine Ahnung, wie man es nennen möchte,
0:07:38–0:07:51
was dann wirklich diese Riesenhürde ist, wo künstliche Intelligenz, die heute zwar und das ist eine Hypothese von mir als Intelligenz vermarktet wird, aber die noch sehr nah am Maschinenlernen dran ist,
0:07:52–0:08:01
dass es dann wirklich um so eine Form von sich selbst Erkennendes und Spürendes, was Wesenshaftes werden könnte.
0:08:01–0:08:06
Und da denke ich, spielt es selbst in der klinische Psychologie eine große Rolle. Und in der Entwicklung,
0:08:08–0:08:14
des jeden Menschen entsteht etwas, was wir selbst nennen. Da möchte ich eigentlich drüber sprechen.
Florian Clauß
0:08:14–0:08:15
Ein Selbstbewusstsein.
Micz Flor
0:08:16–0:08:19
Genau das ist interessant, weil Selbstbewusstsein ist halt so ein Stichwort.
0:08:19–0:08:29
Das sagen wir im Deutschen. Das hat ja ein bisschen was damit zu tun, dass wir stolz sind auf das, was wir tun, dass wir unser Licht nicht unter den Scheffel stellen, wie es so schön heißt.
0:08:30–0:08:42
Im Englischen ist es halt, gibt es halt diesen Begriff der self awareness, den man im Deutschen gar nicht, also dieses Selbst Gewahrsein, das gibt es.
0:08:42–0:08:49
Also wenn wir von Bewusstsein sprechen und Awareness sprechen und oder Consciousness sprechen, dann im Deutschen.
0:08:51–0:09:02
Jetzt zieht es gerade mein Körper so zusammen. Wahrscheinlich, weil ich das Wort sentient, nämlich Empfindungsfähigkeit oder empfindungsfähig genannt habe.
0:09:03–0:09:11
Weil das auch nur so eine Nebenspur ist, die ich glaube, die völlig unterschätzt wird, ist, was das Körperliche in Lernprozessen für eine Rolle spielt.
0:09:13–0:09:16
Also wir sind es ein bisschen absurd. Wir sind mitten im Dunkeln. Gerade.
0:09:17–0:09:21
Mir bleibt manchmal die Luft weg. Ich kann gar nichts sehen.
0:09:22–0:09:36
Und die Analogie dazu? Die Assoziation wäre vielleicht wirklich eher dann so eine, so eine sich gewahr werdende künstliche Intelligenz, die erst mal so im Dunkeln steht, sie irgendwie gar nicht so genau die Welt berühren kann oder erfassen kann.
0:09:38–0:09:45
Ich möchte vorneweg auch noch ein Literaturtipps zu dem Thema abgeben.
0:09:46–0:09:50
Habe ich dir Flo zum Geburtstag geschenkt?
0:09:50–0:09:54
Können wir auch vielleicht irgendwann mal besprechen als Folge von Dan Simmons Ilium.
0:09:55–0:10:09
Da geht es also. In einem sehr langen, sehr komplexen Buch, finde ich, geht es ganz großartig eigentlich um diese Frage von künstlicher Intelligenz, Menschsein und Körper sein und wie auch immer.
0:10:10–0:10:13
Weil in diesem Buch unglaublich viele unterschiedliche Formen von.
0:10:16–0:10:28
Sag ich mal Wesen, eben auch Menschen dargestellt werden. Es gibt normale Menschen, es gibt Übermenschen, es gibt aber auch zum Beispiel diese Mora wächst die halt eher so Roboter sind aber die wie ein eigenes,
0:10:29–0:10:33
Gott man meine Brust macht manchmal zu.
0:10:34–0:10:45
Denn zumindest geht es dann auch um diese Morawags. Das sind im Prinzip Roboter, die aber völlig autonom sich selbst herstellen oder wie auch immer, dass weiß man gar nicht genau.
0:10:46–0:10:50
Die. Und dann gibt es auch zwei der Hauptperson.
0:10:50–0:11:00
Das eine ist ein Mann. Mut und Aufruhr auf Io, die beide sich über die Shakespeare Sonette auslassen und darüber reden.
0:11:00–0:11:09
Und der eine möchte, ich weiß nicht mehr wie rum, der andere möchte den anderen davon überzeugen, dass Shakespeare es wert ist, sich damit auseinanderzusetzen.
Florian Clauß
0:11:09–0:11:17
Ich glaube, der eine bringt hier die verschwunden, die die verlorenen Zeit,
0:11:19–0:11:25
eins als sein Objekt of war, der sich die ganze Zeit mit beschäftigt.
0:11:26–0:11:32
Und Shakespeare ist natürlich die höchste Klasse von dem und die sind die ganze am struggeln.
0:11:33–0:11:43
Das ist also diese Szenen sind so absurd wo der dann von diesen ein Kilometer großen Oktopus flieht, während er dann noch versucht irgend so eine.
0:11:44–0:11:52
So eine Textanalyse von Shakespeare dann nebenbei zu machen und er ist kurz davor, halt von einem Oktopus dann verschluckt zu werden.
0:11:52–0:11:58
Aber schafft es dann auch, die Textanalyse fertig zu machen, in der Wurst dann halt auszuweichen?
Micz Flor
0:11:59–0:12:01
Und das ist nämlich genau die beiden, die,
0:12:03–0:12:12
die bringen dann auch so einen körperlichen Aspekt rein. Und natürlich hat man dann, das ist ja auch ein Thema der künstlichen Intelligenz, wie sind meine Interfaces mit der Welt, was kann ich sehen?
0:12:13–0:12:17
Kann ich zum Beispiel mit der Kamera Bilder sehen oder kann ich einfach nur Texte lesen?
0:12:17–0:12:28
Und bei denen ist es so, dass der Mann Mut der ist dann so ein sehr ungelenker, großer, schwere Roboter, der in einem genauso ungelenken, großen, schweren Raumschiff liegt,
0:12:29–0:12:36
der sich dann mit den Sensoren oder der Sensorik, sag ich mal, dem sensorischen System des Raumschiffs verbindet, um dann,
0:12:37–0:12:44
quasi durch das Raumschiff hindurch die Welt zu sehen, durch die das Raumschiff fliegt, was er wiederum lenkt.
0:12:45–0:12:55
Und dann hat er diese Crashlandung. Das ist glaube ich genau diese Szene und danach muss er sich dann irgendwie durch seinen Kollegen Orfurio so ein bisschen sensorische Zeit pumpen.
0:12:56–0:13:10
Schaltet sich dann bei dem ein, um die Welt wahrzunehmen. Das sind dann natürlich ganz andere elektromagnetische Frequenzen, die OFU hat, aber er kann das dann irgendwie so extrapolieren, um dann überhaupt wieder in der Welt zu sein und damit arbeiten zu können.
0:13:10–0:13:14
Und das ist natürlich auch ein großes Thema in der künstlichen Intelligenz.
Florian Clauß
0:13:14–0:13:16
Das Learning Pattern.
Micz Flor
0:13:17–0:13:23
Vor allen Dingen aber glaube ich die Wahrnehmung. Was kann ich sehen? Was?
0:13:26–0:13:36
Also wie ich jetzt drauf kam. Also ich habe das natürlich immer wieder Thema, ich habe Psychologie studiert, da hört man irgendwann von Weizenbaum das Eliza Programm.
0:13:36–0:13:42
Das ist im Prinzip Code, der versucht anhand von einem,
0:13:45–0:13:51
Non directive Psychotherapie Approach, der eher über Fragen funktioniert, versucht das zu simulieren.
0:13:51–0:13:55
So eine psychotherapeutische Sitzung, du tippst was und er antwortet.
0:13:55–0:14:05
Und das war natürlich dann auch so 1966 Spielerei mit dieser Idee vom Turing Test oder das Imitation Game, wie Turing selber gesagt hat,
0:14:06–0:14:11
wo man halt feststellen könnte, ob eine Maschine in der Lage ist.
0:14:11–0:14:25
Ich sag es mal so komisch den Menschen zu imitieren oder andersherum gedeutet den Menschen zu täuschen, der dann nicht mehr in der Lage ist, das, was die Maschine mitteilt, über Text oder wie auch immer,
0:14:25–0:14:28
von dem zu trennen, was Menschen mitteilen.
0:14:28–0:14:42
Und das ist halt genauso ein Schritt, glaube ich, der gerade in diesem Chat CPT passiert ist, wo OpenAI jetzt so eine Art Game Changer online gestellt hat,
0:14:43–0:14:44
wo man einfach chatten kann.
0:14:45–0:14:50
Man kriegt auf jede Frage eine Antwort und.
0:14:52–0:15:00
Ich habe interessante Sachen darüber gelesen. Da hat jemand mal gefragt Einfach so Social Media, Was war für euch gut?
0:15:01–0:15:03
Es war ein besonderes Erlebnis mit diesem Chatbot.
0:15:04–0:15:06
Und eine Person meinte Ich habe mich getraut.
0:15:07–0:15:15
Also Doktorandin. Ich habe mich getraut, Checkpoint Fragen zu stellen, die ich meinem Supervisor nicht hätte stellen wollen.
0:15:16–0:15:29
Und der Supervisorin? Ich weiß es nicht. Und das fand ich total interessant, Weil du hast halt bei diesen Antworten, die Antworten haben so eine bestimmtes, so ein Konferenz, die kommen halt mit viel Nachdruck.
0:15:30–0:15:36
Und dass dann jemand wirklich das Gefühl hat, sich lieber einen Chatbot mit Charme besetzten Fragen zu wenden,
0:15:37–0:15:47
Sachen, die man eigentlich wissen müsste, wo man trotzdem Hilfe braucht, dass man da irgendwie an den Chatbot geht und nicht an seinen Supervisor oder Supervisorin, das ist ja auch irgendwie interessant.
0:15:48–0:15:51
Dann habe ich mich selber hingesetzt, habe dann irgendwie gedacht.
0:15:54–0:16:01
Also auch mal ausprobieren. Und bei mir kam jetzt aber nichts wirklich raus, was mich total beeindruckt hätte.
0:16:01–0:16:12
Ich habe dann irgendwie gedacht ach, mach ich mal irgendwie sowas, weil der Typ jetzt, da geht es halt um Text, das heißt diese, diese, dieses Modell oder diese.
0:16:12–0:16:16
Dieser Datensatz hat unglaublich viel Text gelesen.
0:16:16–0:16:29
Da habe ich gedacht, das ist ganz sicher, dass der natürlich auch so Fabeln kennt und habe dann halt so Fragen gestellt Was wäre eine psychoanalytische Deutung von es, ob es Fabel mit dem Fuchs und dem Bär?
Florian Clauß
0:16:30–0:16:32
Es ist, was? Es.
Micz Flor
0:16:32–0:16:40
Das sind, äh. Das sind so kurze Fabeln. Kennst du vielleicht auch so der, der, der Löwe, das ist so der Löwe. Und der Fuchs zum Beispiel.
0:16:41–0:16:43
Der Löwe? Fragt ein Tier den Dachs.
0:16:46–0:16:49
Rieche ich gut. Und der Dax sagt so Orly, du stinkst.
0:16:50–0:16:57
Und dann frisst er den Dax auf. Dann fragt er. Keine Ahnung. Storch, rieche ich gut? Störe ich? Du riechst. Du riechst super.
0:16:58–0:17:03
Dann frisst er auch den Storch auf. Und dann fragt ein Fuchs Rieche ich gut? Und dann sagt der Fuchs Ich habe leider Schnupfen.
0:17:04–0:17:09
Also so solche solche kurzen Fabeln sind es, und die sind alle immer relativ offen.
0:17:09–0:17:18
Da gibt es dann so bestimmte Deutungssätze, die manchmal auch drunter stehen, so von wegen keine Ahnung, Guides, öffnet dir nicht die Welt oder solche Sachen.
Florian Clauß
0:17:19–0:17:27
Sie würde in der Psychotherapie eingesetzt oder gar nicht. Das wäre jetzt nur dein dein, denn dein point of interest.
Micz Flor
0:17:22–0:17:24
Nee, gar nicht. Das war einfach meine.
0:17:27–0:17:36
Und dann kommt halt was raus, wo du denkst So, das ist wie so ein Neuntklässler, der halt so schummelt, also dann kommt halt so was.
0:17:37–0:17:40
Egal ob es deutsch oder englisch ist. Es war interessanterweise auch sehr, sehr ähnlich.
0:17:41–0:17:53
Also ich hätte da erwartet, dass da vielleicht auch Unterschiede drin sind. Aber Deutsch und Englisch waren gleich, so dass ich eher dachte, dass es hin und her übersetzt wird, anstatt dass es unterschiedliche Datensätze sind zum Lernen.
0:17:53–0:18:02
Und da standen halt so Sachen. Ja, man könne die Fabel von Äsop und dem Bären auch psychoanalytisch deuten,
0:18:03–0:18:14
und als eine Metapher sehen auf die unbewussten und vorbewussten Ängste und Wünsche, die man sich nicht traut zu sagen, wenn halt irgendwelche Gemeinplätze so reingeklebt.
0:18:15–0:18:16
Aber wie auch schon.
0:18:18–0:18:23
Diese Doktorandin erlebt hat mit einer unglaublichen so sehr auf Konferenzen.
0:18:23–0:18:33
Das klingt halt wirklich erst mal so wie so ein Neuntklässler, der sich halt irgendwie ganz schnell noch irgendwas runterschreibt, die Sätze ein bisschen umbaut, um die Hausaufgaben abgeben zu können.
0:18:35–0:18:41
Und das war bei unterschiedlichsten Sachen so, dass ich das Gefühl hatte, dass das oft.
0:18:43–0:18:48
Gut zusammengesetztes Muster war aber nicht unbedingt.
0:18:52–0:19:00
Keine Ahnung. Also bei dem Dali Ding, da hatte ich dann immer noch so das Gefühl, dass wirklich was neues passiert. Auch wenn man wusste, es wird alles gemischt und berechnet.
0:19:00–0:19:12
Man kannte alle Stile, man hat ja auch immer Götz seine wiedererkennen, aber es war trotzdem was Neues und da hatte ich so nicht das Gefühl bei dem, was ich gesehen habe, dass es wirklich was Neues bringt und.
0:19:15–0:19:16
Jetzt habe ich den Faden ganz kurz.
Florian Clauß
0:19:16–0:19:22
Aber ich finde direkt die Beispiele, die ich auch von Tweety mitbekommen habe.
0:19:23–0:19:29
Ich glaube, dass es durch diese doch irgendwie abstraktere Funktion des Textes,
0:19:31–0:19:41
viel mehr ein Tool, was sich in den Alltag integrieren lässt, als es diese ganzen Bildbearbeitung da ist, halt dieses schöpferische Neue usw..
0:19:41–0:19:54
Ich meine, das klingt jetzt dann auch irgendwie eine Industriereife und kann natürlich dann halt in irgendwelchen Fotoprogramme usw. direkt auf deine auf auf dem Handy zur Kamera laufen. Wie auch immer.
0:19:55–0:20:04
Aber die Idee hat glaube ich schon ganz konkret eine Funktion, die du sofort adaptieren kannst. Du hast das Beispiel mit dem Jungen.
0:20:05–0:20:11
Ja, das war ja auch der erste Aufschrei. Jetzt müssen die Kinder nicht mehr ihre Hausaufgaben machen. Du kannst ja auch so einen Mut mitgeben.
0:20:11–0:20:20
Ich kann nur sagen Bitte schreib mir jetzt hier einen Aufsatz über über Goethes Farbenlehre, aber im Stil von einen 12-jährigen Schüler.
0:20:21–0:20:28
Und dann kriegst du es halt so. Das ist ja irgendwie, das ist ja super tauglich, oder? Es ist jetzt ein anderes Beispiel von so einem, von so einem.
0:20:29–0:20:36
Ich glaube, es war so ein irgendwie so ein Typ aus der Baumschule oder so was. Oder der Gärtner. Ja, genau das.
Micz Flor
0:20:34–0:20:44
Ja, das habe ich auch gelesen. Wo einer sagt ich bin gerade Mentor für so einen Jungen, der hat dann eine eigene Landschaft aufgemacht und ich habe jetzt so was gebaut, wo ich das irgendwie zusammen pipe.
0:20:44–0:20:54
Und dann pfeife ich seine Fragen und dann hat so ein beispielhaften Satz so von wegen dir, Sir, aber liegt schon vor mir. Dann very capable of the innovation.
0:20:55–0:20:57
Aus dem Ausgangstext Was er gemerkt hat, ist gar nicht.
0:20:59–0:21:10
Der hat, der hätte das so nie schreiben können. Und der Mentor hat dann ganz stolz berichtet, dass dann sein Zögling quasi 220.000 $ Kontrakt bekommen habe.
0:21:11–0:21:13
Und man guckt sich das an und denkt halt so.
Florian Clauß
0:21:14–0:21:28
Äh, ja, aber es sind halt solche, solche Sachen, die werden jetzt so quasi automatisiert erledigt, weil es total praktisch ist, dass diese, diese anschreiben, die Formulierungen usw.
0:21:28–0:21:34
Kannst du einfach hinwerfen und zu sagen gib mir mal einen Text raus und du sparst einfach Zeit.
0:21:34–0:21:36
Ich finde es als Vorstellung unglaublich.
Micz Flor
0:21:38–0:21:42
Ja, das stimmt. Also das ist ja auch so, dass.
0:21:44–0:21:57
An Universitäten ist ja auch ein großer Aufschrei. Da wurde dann auch getestet anhand von Personal, die halt irgendwie studentische Arbeit retten müssen, dass die gemeint haben,
0:21:58–0:22:09
sie könnten nicht wirklich einzelne Absätze oder kurze Texte identifizieren, die jetzt durch AI, also Open Air,
0:22:10–0:22:13
hergestellt wurden oder von Studierenden kamen.
0:22:13–0:22:17
Das ist natürlich dann eher so der Fall, sag ich mal weicheren.
0:22:20–0:22:28
Weiteren wissenschaftlichen Arbeiten, die auch von meinen geprägt sind, also die psychoanalytische Interpretation von Elisabeth Observ.
0:22:29–0:22:36
Das hat nicht geklappt, auch wenn ich die Psychoanalyse keine harte Wissenschaft ist und für ganz harte Wissenschaft theoretische Physik.
0:22:37–0:22:47
Habe ich auch irgendwo gelesen, dass eine Wissenschaftlerin eine ganze Reihe von Texten hat erstellen lassen, wo sie meinte, dass.
0:22:48–0:22:53
Fatale ist halt, die klingen alle erstmal sehr plausibel, sind aber sachlich falsch.
0:22:53–0:22:56
Das heißt, es klingt dann wie eine Publikation.
0:22:58–0:23:07
Und die Frage ist natürlich, wie viel von deiner Publikation kannst du jetzt schreiben, die dann natürlich nicht erkannt wird, wenn wenn.
0:23:07–0:23:11
Du diese Dienste nutzt. Die halt, heißt es manchmal im Englischen.
0:23:12–0:23:15
Also wenn es Fälschungen sind oder Kopien Kopien sind.
0:23:17–0:23:21
Und gleichzeitig. Ist halt falsch.
0:23:21–0:23:27
Auch da wieder Mit viel Konferenz wird es halt irgendwie in die Welt gehauen, so dass man es halt erst mal glaubt.
0:23:28–0:23:30
Hab ich auch eingesehen, der halt irgendwie meinte.
0:23:32–0:23:43
Der hat gefragt, was kriegt man, wenn man von zehn 10 % abzieht von dem was man dann hat, 10 % wieder dazuzählt?
0:23:44–0:23:57
Und weil die falsche Antwort von Zschäpe die ist es, wenn du von zehn, also wenn du von 100 % 10 % abziehst, hast du 90 %. Wenn du dann 10 % wieder zu fügst, hast du natürlich wieder 100 %. Also ist das Ergebnis das Gleiche.
0:24:00–0:24:06
Ähm, kam halt irgendwie so die Intervention von dem, der das eingegeben hat, wieder.
0:24:07–0:24:08
Nein, das Ergebnis ist nicht richtig.
0:24:09–0:24:12
Und dann kam die Antwort. Natürlich ist das Ergebnis nicht richtig.
0:24:14–0:24:18
Weil wenn man nämlich bei 90 % 10 % drauf nimmt und hat dann ewig so weiter geredet.
0:24:18–0:24:31
Aber du merkst halt irgendwie, da ist so ein Satz, so eine Fassade, so was Fassade wäre so, als ob im Hintergrund jemand so ein bisschen fanatisch nach nach einer Lösung sucht, während er nach vorne raus am Radiomikro.
0:24:31–0:24:36
Die die Leute unterhalten muss, weil er darf jetzt nicht mehr wegschauen. Das.
0:24:38–0:24:40
Aber das ist halt. Jetzt sind wir wieder in der lauten Straße.
Florian Clauß
0:24:41–0:24:50
Vielleicht können wir jetzt hier einfach gucken, dass sich das wieder staut und dann kann ich einen Abstecher wieder in die Wuhlheide machen,
0:24:51–0:24:58
und dann ein bisschen abseits von dem Lärm.
0:25:00–0:25:01
Okay.
Micz Flor
0:25:03–0:25:13
Und damit es irgendwie so ganz gut eingefangen wird. Müssen wir glaube ich schon ganz kurz mal durch dieses Konzept von Lernen durchgehen.
0:25:13–0:25:21
Weil das ist auch so ein eigentlich Thema. Eigentlich habe ich das Gefühl, je mehr man da reinguckt, ist es eine Frage von Definition.
0:25:23–0:25:31
Also ich glaube, dass das das sowohl das Wort künstlich als auch das Wort Intelligenz, das Sinnhafte, was die Menschen darunter verstehen.
0:25:31–0:25:38
Das ist falsch. Ich glaube, von vielem, was ich so gelesen habe, ist es halt irgendwie einfach eine andere Form von Maschinen lernen.
0:25:44–0:25:48
Bei diesen Lernprozessen, für was wir künstliche Intelligenz nennen.
0:25:48–0:25:55
Da gibt es dann mehrere Unterscheidungen. Zum Beispiel ist es eine supervidierte oder nicht zu lernen.
0:25:55–0:26:04
Das ist ganz einfach erklärt, dass man zum Beispiel so was wie ein Textwolke bereitstellt, in der gelernt wird.
0:26:05–0:26:17
Man kann dann aber dem Algorithmus, der das alles analysiert, irgendwie sagen So, jetzt gebe ich dir mal so und so viel Megabyte Sport und jetzt gebe ich dir so und so viel Megabyte Musik.
0:26:18–0:26:28
Das heißt, da ist eine Form von Supervidieren, in der das Material vorbereitet wird und nicht supervidiert ist. Einfach loslassen.
0:26:30–0:26:39
Und auch da kann man einfach. Mit unterschiedlichen algorithmischen Fragestellungen kann man dann natürlich so eine künstliche Intelligenz,
0:26:40–0:26:46
so ein Lernprozess begleiten, dass man zum Beispiel so was sagt wie bei Texten?
0:26:50–0:26:58
Rate bitte jedes Mal das erste Wort des nächsten Satzes, wenn das erste Wort des ersten Satzes heute oder gestern ist.
0:26:59–0:27:05
Und dann einfach solche stochastischen Zusammenhänge zu finden, die dann später eben genutzt werden, um.
0:27:11–0:27:15
Das Gelernte quasi wieder anzuwenden. Nee, doch nicht links.
0:27:16–0:27:19
Weiter ist es eine Sackgasse. Die Kiwi. Hier links.
Florian Clauß
0:27:20–0:27:24
Ich war schon froh, dass ich jetzt an dem Punkt sind, wo wir endlich die Straßen verlassen können.
0:27:25–0:27:33
Aber dem war nicht so. Also sag nochmal das Wort, was du dazu gesagt hast, eben diese in Bezug auf algorithmisch.
Micz Flor
0:27:34–0:27:39
Es gibt das supervidierte Lernen und das nicht Super Wide Superweissen nonstop was im.
Florian Clauß
0:27:36–0:27:37
Super wie dir.
0:27:40–0:27:48
Also okay, das ist jetzt wirklich so! Also so quasi so ein Fachwort aus der Traininggeschichte von von Machine Learning.
Micz Flor
0:27:46–0:27:48
Genau. Machine Learning.
Florian Clauß
0:27:48–0:28:02
Und es gibt ja so diese hart Gesottenen, die sagen, es gibt keine künstliche Intelligenz, es gibt halt nur ein Learning, was dann eine gewisse Ausprägung bekommt. Und wie du sagst, eben jemand.
0:28:02–0:28:04
Je mehr Material, desto,
0:28:07–0:28:15
ja desto besser das Ergebnis. Je mehr Trainingseinheiten, desto eindeutiger oder desto spezifischer wird es. Denn.
0:28:15–0:28:21
Das sind ja so diese, diese Arten, wie trainiert oder wie dann solche Produkte dann entstehen.
Micz Flor
0:28:22–0:28:30
Genau. Und das Interessante ist ja dann oft, dass das Interessante für die weitere Forschung oft nicht was klappt, sondern was nicht klappt.
0:28:31–0:28:32
Das soll dann zum Beispiel.
0:28:35–0:28:43
Bei Bilderkennung, also solchen Sachen. Dann hast du 100.000 Ampeln, die du gerendert hast und dann geht eine Ampel nicht.
0:28:43–0:28:46
Und wird dann keine Ahnung. Wird dann als.
0:28:49–0:29:03
Das ist für Saurier erkannt oder was weiß ich. Es ist halt manchmal wirklich so, dass Fehler entstehen, wo man auch merkt, in dem Moment, wo diese diese von von dem Material abstrahierte Netzwerk an Information, dass das halt.
0:29:06–0:29:13
Dass das halt so auch nicht mehr verstanden werden kann. Was man ja auch gemacht hat, dass es halt mit dem Super nicht zu lernen.
0:29:13–0:29:17
Du hast zum Beispiel bei vielen Bilder kein Programm, dann nehmen die also Stockfotos.
0:29:17–0:29:24
Stockfoto ist halt voll von irgendwelchen hübschen Tomaten, hübschen Menschen, hübschen Wohnungen und so was.
0:29:24–0:29:35
Das heißt, das ist Trainingsmaterial. Und nicht von ungefähr erkennt man dann, dass diese entstehenden Netzwerke einen eingebauten Bias haben,
0:29:36–0:29:43
dass diese scheinbare Vorliebe haben für Palmen und blaues Wasser gegenüber all dem anderen Schaum oder der auch noch Wasser ist.
0:29:43–0:29:57
Und und diese Bias wiederum, die sollen dann irgendwie teilweise nachträglich rausgerechnet werden, sodass man diese Millionen, die man da reingesteckt hat, um das zu trainieren, weil das ist halt auch noch eine ganz wichtige Frage finde ich was?
0:29:58–0:30:08
Also was auch dann noch mal den Mensch von diesen Netzwerken unterscheidet Wie viel Energie brauche ich überhaupt, so was herzustellen und aufrecht zu erhalten? Wäre es nicht interessanter.
0:30:10–0:30:23
Zu gucken, wie energieeffizient man das machen kann und das als Indikator für Erfolg zu nehmen, als die Erkennungsraten oder erfolgreichen Turingtests?
0:30:27–0:30:32
Diese Bikes, die entstehen natürlich auch im Super Weiß Learning.
0:30:32–0:30:35
Zum Beispiel war es so bei dem CTBT, da kann ich einen Link machen.
0:30:35–0:30:40
OpenAI hat da selber einen Artikel drüber geschrieben, wo das drin vorkommt, dass zum Beispiel die,
0:30:43–0:30:57
dieses Modell, das ist noch der nächste Schritt reinforced oder non reinforced learning. Also wird einfach das losgelassen und dann kriegt es auch ein Feedback, dann kriegt es halt quasi gesagt gutes Ergebnis, nicht so gutes Ergebnis.
0:30:57–0:31:01
Und das wird dann wieder in dem neuronalen Netzen mit abgebildet.
0:31:01–0:31:15
Und da und da war es so, dass anfangs bei diesem ZGP längere Sätze von den Leuten als positiver bewertet wurden, was irgendwie intelligenter klang oder wahrhafter Klang.
0:31:15–0:31:25
Das heißt auch, du kriegst dann auch über über Feedbackschleifen die Menschen wieder reinbringen, die die Ergebnisse eigentlich verbessern soll. Kriegst du auch wieder Beißer eingebaut?
0:31:26–0:31:29
Das ist ja auch noch mal ganz wichtig. Und.
0:31:33–0:31:40
Dann gibt es noch die Möglichkeit, wenn man zum Beispiel Non Super Learning einfach macht.
0:31:41–0:31:47
Da könnte man sich auch vorstellen, dass da trotzdem relativ komplexe Fragestellungen bearbeitet werden könnten.
0:31:48–0:31:55
Man könnte sich zum Beispiel vorstellen, was ein Schachspiel. Und du siehst nur diese Position und weißt Weiß muss jetzt ziehen.
0:31:56–0:32:05
Und du kennst aber die Regeln des Schachs gar nicht. Aber ähnlich wie bei diesem Bild Generation generieren.
0:32:06–0:32:08
Wenn ich über dem Bild generieren, kann es halt sein.
0:32:08–0:32:20
Bist du trotzdem einfach in der Summe der Position auf dem Schach und der Bilder, die dir gegeben werden. Verstehst du? Wenn ich jetzt hin ziehe, dann führt das öfter zum Sieg.
0:32:21–0:32:27
Bei Schach ist es jetzt vielleicht schwierig, weil man da unglaublich viele komplexe Situationen herstellen kann auf dem Feld.
0:32:28–0:32:32
Aber es gibt immerhin auch einfach eine Möglichkeit zu sagen okay, ich habe keine Ahnung, worum es hier geht.
0:32:32–0:32:42
Ich weiß nur, wenn jetzt dieses Feld mit dem besetzt ist, dann ist die Wahrscheinlichkeit, das hinten raus eine Belohnung kriegt, deutlich größer.
0:32:43–0:32:47
Und das ist dann wirklich ohne Model.
0:32:47–0:32:53
Also Model heißt halt quasi. Man kann natürlich auch am Computer erst mal Schach beibringen und die Regeln geben.
0:32:53–0:33:00
Das heißt, er kann nur Züge machen, die da drin in dem Regelheft abgebildet sind. Und das ist dann.
0:33:03–0:33:03
Mit einem Model.
Florian Clauß
0:33:05–0:33:17
Interessant und das sind so verschiedene Methoden, um halt zu einer gewissen äh. Also um, um die. Um das. Um die Maschine zu trainieren.
Micz Flor
0:33:17–0:33:27
Und da gibt es halt. Ich weiß gar nicht, ob das auf YouTube auch ist oder nur irgendwie auf Netflix oder anderem, aber es gibt eine sehr schöne Doku über diese Go, dieses,
0:33:28–0:33:33
die und in der Doku ist ist es so da bei dem Training dieses Systems war es ja so,
0:33:34–0:33:47
dass zuerst wurden die Regeln vorgegeben und es hat sich Spieler angeschaut und dann später war es aber so, dass zum Ersten Mal erfolgreich auch zwei künstliche Intelligenz Systeme gegeneinander gespielt haben.
0:33:48–0:33:55
Und ich glaube sogar im letzten Schritt war es so, dass die Regeln nicht mehr vorgegeben wurden, sondern anhand des Wissens um,
0:33:56–0:34:06
schon gespielter Partien und dem Spielen eigene neue Partien die Regeln aus dem Spiel erschlossen wurden.
Florian Clauß
0:34:06–0:34:07
Er Wahnsinn.
Micz Flor
0:34:07–0:34:16
Und in der Doku, in der glaub ich von drei Spielen eins von dem Go Meister gewonnen wird, die zwei anderen von der Maschine.
0:34:17–0:34:23
Da gibt es doch so einen Punkt. Weil die zwei Moderatoren, eine Moderatorin, ein Moderator, die haben halt wie so ein,
0:34:25–0:34:37
wir kennen das halt eher vom Schach, weil Go ist ja nicht so populär, aber nur so ein großes Go Brett und dann werden halt immer diese Steinchen abgebildet und die reflektieren, was könnte das sein, was hat der jetzt vor und so und da gibt es halt dann eine Situation,
0:34:37–0:34:39
die echt sehr schön zeigt,
0:34:40–0:34:43
dass dann doch auch da was neues in die Welt kommt.
0:34:43–0:34:47
Weil in diesem Go Board gibt es dann immer so Inseln von Stein.
0:34:48–0:34:52
Ja und auf einmal legt dann die Maschine, legt dann den Stein so ins Nichts hinein.
0:34:54–0:35:03
Plump, der liegt dann so und du merkst ja, bei den beiden, die moderieren, ist ja erst mal so stille, hä?
0:35:04–0:35:08
Und dann großes Lachen. Oh, ist halt doch nur eine Maschine. Weiß nicht, was sie tut.
0:35:09–0:35:20
Und dann stellt sich aber raus, dass das halt so der geniale Zug war, wo das Ganze dann kippt, dass dieser eine Stein dann auf einmal eben das Feld beherrscht und so viel anderes nicht mehr zulässt.
0:35:21–0:35:32
Und das fand ich so ganz interessant, weil das war wohl so ein Punkt, wo wirklich auch die Experten Experten gesagt haben, das ist jetzt kein menschlicher Zug, der kommt halt, ist es der Siegerzug von der Maschine?
Florian Clauß
0:35:32–0:35:41
Ich meine, bei den ganzen trainierten Maschinen ist es ja so, dass die am besten in so bauen det Kontext funktionieren.
0:35:41–0:35:47
Deswegen ist dann halt irgendwie Schach und Go so ein beliebtes Feld, weil es halt ein klares Regelset ist.
0:35:47–0:35:51
So ein bisschen irgendwie, wie wie,
0:35:53–0:36:02
automatisiertes Fahren auf der Autobahn sehr einfach ist, weil du hast dann eine ganz klare Markierung, an denen kannst du dich orientieren und der Rest ist dann halt Berechnung.
0:36:02–0:36:14
Und das war's jetzt dann immer so, dass ich sag mal, die Herausforderung ist das in Form von wie kriegt man das jetzt irgendwie nicht geboxt,
0:36:15–0:36:26
wie kriegt man, wie kriegt man so dass man tatsächlich das Gefühl hat da so eine Form von Selbstbewusstsein, weil so eine Go Maschine ist ja nicht selbstbewusst, sondern eine Maschine ist halt irgendwie so,
0:36:27–0:36:31
ja, also kann halt irgendwie gut Go spielen und ähm.
0:36:32–0:36:46
Aber ich glaube das ist so nochmal so dieser der Referenzraum, wenn der sich dann halt so quasi auf so eine Welt, die dann halt sehr divers ist, wenn sich das dann halt so erweitern kann, das ist ja das Spannende.
Micz Flor
0:36:48–0:36:52
Ja, und das ist halt auch. Du kennst das Spiel Pong.
0:36:53–0:37:01
Wenn man zum Beispiel das also rechts und uraltes Spiel rechts und links zwei weiße Balken hoch und runter war ein Analogstick.
0:37:01–0:37:05
Also man konnte dann auch ganz schnell hoch oder runter machen und,
0:37:06–0:37:16
dazwischen ein weißer Würfel, der dann wieso Tennis, der hin und her fliegt und bei wem er dann hinten durchfliegt, der nicht zurück abwehren kann, der verliert einen Punkt oder einen Punkt dazu.
0:37:17–0:37:20
Und da ist es zum Beispiel, was ich vorhin meinte Wenn du ein Schachbrett dir anschaust,
0:37:22–0:37:34
da hast du ein Regelwerk, was die Maschine weiß oder nicht weiß, aber man kann trotzdem einfach auf das Bild gucken und kann ein Urteil fällen und kann dann sagen okay, das wäre ganz gut, dass wir ganz gut das Risiko.
0:37:34–0:37:48
Oder bei Pong zum Beispiel, da könntest du, wenn du zwei Bilder hast und du weißt, sind eine halbe Stunde halbe Sekunde auseinander, dann könntest du halt, wenn du wenn du ein.
0:37:49–0:37:55
Ein algorithmisches Wissen um das Spiel hast, könntest du vorher errechnen, wo diese Ball hinfliegt?
0:37:56–0:38:02
Wenn du nur ein Bild siehst, dann weißt du nicht, ob das von dir in deine Richtung fliegt und wegfliegt.
0:38:03–0:38:11
Du weißt nicht, ob es gerade fliegt, ob es schnell fliegt. Das heißt, du kannst dann anhand von einem Bild, so einem einfachen Spiel wirklich nicht viel sagen.
0:38:13–0:38:24
Und das ist halt immer der Punkt. Du musst dann halt gucken, welche Aufgabe stellst du diesem Experiment, sag ich mal, und dementsprechend musst du dann halt ein Modell auswählen, was halt auch gut.
0:38:25–0:38:33
Die Problemstellung passt, was jetzt gerade eben auch ein großes Thema ist, eben auch mit KI für Fahrzeuge und so.
0:38:33–0:38:48
Das ist halt so ein prozedurales Umfeld, was sich halt permanent auch verändern kann und was eben aber auch in sich selbst keinen Abbruch. Wie du sagst Box abgeschlossen, Raum hat, in dem etwas immer wieder durchgespielt wird, sondern was sich auch wieder verändert hat.
0:38:48–0:38:56
Wir sind dann schon der Halt, der neue Pfade hat und das Wissen was die AI da lernen muss, ist nicht.
0:39:00–0:39:09
Also es fängt jedes Mal wieder von null an. Wo man da wirklich so das Gefühl hat, dass es in dem Moment vielleicht sogar besser bot zu schreiben, als KI zu trainieren.
0:39:10–0:39:17
Weil du musst Dinge in Anführungszeichen verstehen, interpretieren, abwägen und dann Entscheidungen fällen.
0:39:18–0:39:25
Und diese stochastischen Modelle von vielen Kids, die sind da nicht unbedingt die besten Möglichkeiten.
0:39:27–0:39:34
Was mich halt auch noch in eine andere Sache zurückführt. Was ich ganz spannend finde, ist, dass die KI jetzt so abgeht.
0:39:35–0:39:40
Das war für manche vielleicht klar, aber es ging jetzt enorm schnell.
0:39:40–0:39:44
Es entsteht da so ein ganz komischer Raum, auch wo unglaublich viel Geld reingepumpt wird.
0:39:45–0:39:52
Zum Beispiel ist bei diesem Z petit, das kostet angeblich 100.000 $ pro Tag das am Laufen zu haben.
0:39:53–0:40:02
Es wird wohl auf Microsoft asur gehostet. Habe ich in einem Artikel gefunden und das heißt 3 Millionen pro Monat werden reingesteckt, nur damit es läuft.
0:40:03–0:40:09
Also es sind immense Summen, die da gerade verbraten werden, um auch Reviere abzustecken.
0:40:10–0:40:14
Und gleichzeitig, um natürlich auch Futter zu kriegen, dass die.
0:40:18–0:40:20
Gleichzeitig auch Futter zu kriegen, das die Maschinen besser lernen können.
0:40:22–0:40:23
Ähm.
Florian Clauß
0:40:24–0:40:26
Ganz gut. Wünsch dir was. Denkst du?
Micz Flor
0:40:27–0:40:30
Es ist total lustig. Unser. Unser Weg ist so ein bisschen.
Florian Clauß
0:40:32–0:40:42
Wir können. Ja, wir können also wieder zurück oder so Richtung Auto, dass Autos da ist. Und dann brauchst du noch ein bisschen länger.
Micz Flor
0:40:43–0:40:46
Ich habe noch gar nicht angefangen. Geht er.
0:40:46–0:40:51
Es geht, Dann drehen wir jetzt um und ich nehme den Rückweg von dieser Allee für mein eigentliches Thema.
0:40:57–0:41:00
Gut, das war jetzt quasi der, der das Vorspiel.
0:41:01–0:41:08
Und jetzt? Point of no return gibt es hier nicht, sondern point of return. Die Rückweg nehme ich für mein eigentliches Thema.
0:41:11–0:41:22
Wenn man sich mit diesem Künstliche Intelligenz Thema auseinandersetzt, dann geht es ja immer auch darum, dass man das auf so einer menschlichen Ebene sieht. Ich habe ganz kurz von diesem Bike angesprochen.
0:41:22–0:41:34
Also es gibt bei der Psychologie zum Beispiel den Rosenthal Effekt. Das ist genau so ein Bias, wenn man den Forschern sagt diese Ratte ist echt clever, diese Ratte ist echt dumm.
0:41:35–0:41:42
Dann wird die Ratte, die echt clever ist, sich besser. Also es wurde auch wiederholt das Experiment.
0:41:43–0:41:47
Die findet sich besser im Labyrinth zurecht als die, die angeblich dumm ist.
0:41:48–0:41:51
Das heißt, die Versuchsleitung hat dann Einfluss.
0:41:51–0:41:56
Die innere Einstellung gegenüber dem Tier hat einen Einfluss auf die Ergebnisse, die da rauskommen.
Florian Clauß
0:41:56–0:41:58
Und wie kriegt das Tier das mit? Ja.
Micz Flor
0:41:58–0:42:00
Ja, spannende Frage. Dann.
Florian Clauß
0:42:00–0:42:02
Wieso denn?
Micz Flor
0:42:02–0:42:05
Transpis. Weitergabe von. Von Attitüde und.
Florian Clauß
0:42:06–0:42:10
Aber es ist jetzt. Aber das ist doch genau diese Sache von Doppelblindstudien.
Micz Flor
0:42:10–0:42:23
Genau das war der Rosenthal Effekt. War auch ein ganz wichtiger Stepstone in dieser Umstrukturierung. Von diesen ganzen Studien ist man Doppelblind heißt eben, dass.
0:42:24–0:42:38
Keiner gar nichts weiß, also wie der Versuchsleiter weiß, ob da jetzt Substanz, wenn es Medizin ist, zum Beispiel Substanz drin ist oder nicht. Und das wird quasi komplett getrennt und versucht random zu randomisieren.
0:42:40–0:42:45
Und wenn wir jetzt also künstliche Intelligenz, diese ganze Angst, die da ist, die ist ja.
0:42:48–0:42:53
Ist ja irgendwie daran. Das berührt unsere eigene Existenz.
0:42:53–0:42:58
Also angenommen, man würde sagen. Man würde sagen, es ist Maschinenlernen.
0:42:59–0:43:05
Das würde die Leute nicht so anspornen, mitzureden, wie wenn man sagt Künstliche Intelligenz.
0:43:06–0:43:13
Insofern ist dieses Wort natürlich für ihre Aufmerksamkeit super gewählt und.
0:43:15–0:43:19
Die Fantasien, die dahinter entstehen, sind aber natürlich sehr schnell auch okay.
0:43:19–0:43:24
Intelligenz, das ist etwas, das macht den Menschen irgendwie auch einzigartig. Wir haben davon am meisten.
0:43:24–0:43:32
Wir sind die dominante ste Spezies hier auf dem Planeten. Nicht weil wir die längsten Zähne haben, sondern weil oder am stärksten sind, weil wir die intelligentesten sind.
0:43:35–0:43:41
Auf unserer Intelligenz beruht diese Position. Wenn jetzt was entsteht, was potenziell sogar intelligenter ist als wir.
0:43:41–0:43:44
Das ist eine Bedrohung, da fühlt sich jeder irgendwie angesprochen.
0:43:45–0:43:55
Das war ja früher mit den Robotern so ein bisschen, dass die das in den Autoherstellern gedacht wurde. Die ganzen Menschen werden überflüssig.
0:43:57–0:44:03
Was natürlich in vielen Punkten auch passiert ist. Das heißt dieses Bild.
0:44:04–0:44:13
Mit dem man sich irgendwie eigentlich beschäftigt. Ist das Bild von einem menschenähnlichen der deutlich menschenähnlicher Em?
0:44:16–0:44:23
Neuronalen Netz. Was eben. Intelligenz möchte ich gar nicht definieren. Aber was?
0:44:24–0:44:26
Was eben nicht nur smarte Sachen kann.
0:44:28–0:44:39
Über den Begriff künstlich möchte ich mich jetzt gar nicht auslassen, weil das ja auch sehr fragwürdig. Was heißt künstliche Intelligenz? Aber es kann also smarte Sachen tun. Kann Autos rückwärts einparken?
0:44:40–0:44:42
Können wir Bilder malen? Also es kann eine tolle Sachen.
0:44:44–0:44:58
Und dann ist aber dieser zweite Schritt das man und das waren ja auch dann diese, die diese ich weiß gar nicht mehr bei welcher Firma war dieser eine Typ, der auf einmal im Chat mit einer mit einem neuronalen Netz entschieden hat?
0:44:58–0:45:05
Oh Gott, dieses Netz ist sich selbst gewahr, es kennt ja und wir haben es eingesperrt. Es leidet.
Florian Clauß
0:45:05–0:45:09
Ja, ja, das war. Das war glaube ich der Google Entwickler.
Micz Flor
0:45:10–0:45:11
Weil es auf Google. Ich weiß es immer. Ich möchte es.
Florian Clauß
0:45:11–0:45:16
Ja, es war irgend so irgend so einer, der dann halt dann gesagt hat ja das.
Micz Flor
0:45:16–0:45:21
Müssen wir bedenken, dass bei jeder großen Firma irgendwer schon mal gesagt aber wir gucken mal!
Florian Clauß
0:45:21–0:45:24
Wenn du natürlich deine Gelder für.
Micz Flor
0:45:25–0:45:36
Und. Und diese, diese Sorge, die dann eben auch diese moralischen Themen gleich nach oben kochen lässt.
0:45:36–0:45:40
Wir haben inzwischen natürlich auch schon eine Tierethik als einen Bereich, der,
0:45:43–0:45:48
seriös ist. Da ist nicht mehr so ein Blödsinn, sondern es ist ein seriöses Thema.
0:45:48–0:45:55
Und das nächste ist natürlich so eine Frage von Technikethik oder Maschinenethik. Oder ich weiß gar nicht, wie ich es nennen möchte.
Florian Clauß
0:45:55–0:45:56
Asimov sche Gesetze.
Micz Flor
0:45:57–0:46:03
Weil man. Weil man eben. Potenziell. Oder man drängt in eine Richtung.
0:46:05–0:46:08
Von der man noch weit entfernt ist, in der man,
0:46:10–0:46:23
ein Gewahrsein herstellt, was fehlerhaft und deshalb sehr wahrscheinlich leidend sein wird und das aber nicht unbedingt kommunizieren kann mit seinesgleichen, weil es auch noch alleine ist.
0:46:24–0:46:35
Was ich meine, also es ist so ein bisschen von innen heraus wird das entwickelt, von dem man jetzt schon sagt, naja, wir können gar nicht genau sagen, ob das jetzt irgendwie wirklich selbst wahr ist oder nicht, weil,
0:46:36–0:46:40
es kann ja auch ganz anders denken als wir, denn wenn wir es nicht wissen. Weißt du, ich.
Florian Clauß
0:46:40–0:46:46
Hey. Also, es ist. Ich versuche es zu verstehen, aber ist es so was wie, ähm.
0:46:47–0:46:59
Also das, was jetzt für mich sehr nachvollziehbar ist, diesen BIOS, den, von denen du erwähnt hast, in dem Moment, wenn halt quasi derjenige, der das System trainiert,
0:47:00–0:47:08
injiziert irgendwie auch seine seine Vorstellung, seine Moral in dieses System rein.
0:47:08–0:47:21
Also ganz, ganz abstrakt gesprochen, allein dadurch, dass er es trainiert, dass es da halt quasi eine Beziehung gibt zwischen dem, der also dem, der trainiert und dem dem Maschinen Learning.
Micz Flor
0:47:22–0:47:27
Genau. Aber da war ich jetzt schon. Da war ich schon weg. Eigentlich. Ich dachte jetzt eher so..
Florian Clauß
0:47:22–0:47:24
Und dadurch wird halt das initiiert.
Micz Flor
0:47:28–0:47:41
Ich dachte jetzt eher so, wenn wir nachher noch was essen gehen sollten und dann mit dem Ober über künstliche Intelligenz sprechen, dass der irgendwie so was sagt wie Ja, hoffentlich können sie so einen Koch ersetzen. Das kann man nicht essen, was der macht.
0:47:42–0:47:47
Also das diese diese Künste. Also da geht es gar nicht darum.
0:47:47–0:47:50
Ich finde, der Begriff künstliche Intelligenz selbst induziert,
0:47:53–0:48:03
etwas Bedrohliches und ist vielleicht sogar nicht strategisch deshalb entstanden, aber einfach kleben geblieben.
0:48:03–0:48:08
Irgendwann, weil alle Leute damit so Darth Vader mäßig am meisten verbinden konnten.
Florian Clauß
0:48:09–0:48:12
Ja, ja, ja, klar. Okay. Das ist irgendwie ein Begriff. Ja.
Micz Flor
0:48:13–0:48:28
Der eine Teil und der andere Teil ist natürlich, dass, wenn man das weiterdenkt, dass man eben das, was die Menschen da bedroht, nämlich dieses Gefühl, wir werden entweder ersetzt oder es wird halt irgendwas entstehen, was vielleicht sogar noch intelligenter ist als wir, Was dann? Vielleicht sogar.
0:48:29–0:48:34
Die viele Entscheidung besser macht, als wir das vielleicht sogar merkt. Die Menschen sind nicht gut für den Planeten.
0:48:34–0:48:38
Solche solche Fantasien gibt es ja auch.
0:48:43–0:48:52
Okay, das ist jetzt mal ein Kieks. So ein E Roller mitten in der Matschstraße im Nirgendwo.
0:48:53–0:48:54
Damit hat jetzt keiner gerechnet.
Florian Clauß
0:48:55–0:48:57
Ich denke auch, es käme ein Mountainbiker.
Micz Flor
0:48:56–0:49:00
Ich muss dann nachher, ich muss dann nachher irgendwie super aussortiert werden, diese Erfahrung.
0:49:04–0:49:11
Und diese. Was ich meinte mit der Tierethik, die jetzt auch so ai Ethik sein könnte, ist halt du.
0:49:11–0:49:24
Wenn du das herstellen würdest und es wahrscheinlich nicht mal mitbekommen müsstest, dann könntest du höchstwahrscheinlich im ersten Schritt etwas herstellen, was sehr leidet.
0:49:25–0:49:34
Meinst du also einen Horrorfilm? Gibt es das auch immer, wenn irgendwelche Dämonen zum Ersten Mal auf die Welt kommen, sich so manifestieren und dann manchmal so halb in einem Schrank drin hängen oder so ein Rohr durchs Auge kommt. Bist du.
Florian Clauß
0:49:34–0:49:36
Die müssen erst mal gerendert werden.
Micz Flor
0:49:36–0:49:43
Ja, Und du weißt, was ich meine. Diese Momente, wo man dann schieße. Hellraiser. Ich verstehe. Ich verstehe es noch nicht ganz. Warum?
Florian Clauß
0:49:39–0:49:42
Aber ich verstehe. Ich verstehe. Ich verstehe es noch nicht ganz.
Micz Flor
0:49:44–0:49:46
Warum man Leidenschaft in.
Florian Clauß
0:49:46–0:49:50
Aber in dem Moment, also warum das jetzt in die Welt kommt.
Micz Flor
0:49:52–0:49:59
Das ist nicht das, was gerade passiert. Das ist ja Maschinenlernen. Aber weil wir es künstliche Intelligenz nennen, also die.
0:50:00–0:50:03
Ich bin mal gespannt, wie das ist beim Abhören von dem Ganzen.
Florian Clauß
0:50:03–0:50:05
Dann leiden wir gänzlich.
Micz Flor
0:50:05–0:50:10
Wir leiden. Genau. Ich habe gerade. Aber manchmal bleibt mir die Luft weg.
Florian Clauß
0:50:08–0:50:11
Körper im Körper eingeschrieben. Das Leiden.
Micz Flor
0:50:12–0:50:23
Na ja, aber das ist ja, ähm. Ich glaube, dass der, um es mal zu sagen, der große Sprung zwischen dem, was gerade passiert, und zwischen dem, was alle befürchten. Er ist, ähm.
0:50:25–0:50:34
Inzwischen kann AI sehr viel besser bösartige Tumore auf Röntgen erkennen als Ärzte. Schneller und besser. So.
0:50:37–0:50:42
Und dann erkennt es das. Richtig. Punkt. Und was die Leute befürchten, ist.
0:50:43–0:50:49
Und dann weiß der auch, dass der das oder die oder das weiß. Das auch, dass es richtig ist.
0:50:49–0:50:55
Meint es auch. Es hat es abgewägt. Also es tut all diese Dinge, die wir als Mensch von uns kennen und.
0:50:59–0:51:06
Dieser Unterschied ist, glaube ich, enorm wichtig. Also kommt diese Information, die korrekt ist von.
0:51:08–0:51:11
Einem und da komme ich jetzt an das Selbst.
Florian Clauß
0:51:11–0:51:13
Ja, okay. Also, das ist er. Okay.
Micz Flor
0:51:13–0:51:25
Es geht quasi. Was wir jetzt gerade haben, ist, wenn ich es in der Therapie sage, wir haben jetzt gerade die Verhaltenstherapie oder streng genommen nur Behaviorismus, das heißt, wir sagen, egal was in dieser Box ist Turingtest mäßig, egal was da drin passiert.
0:51:27–0:51:40
Wir gucken nur, was reingeht, was rauskommt und nach Thüringen Test wenn das was rauskommt keiner sagen kann Für Mensch oder Maschine ist dann wenn es eine Maschine ist, dann hat die Turing Test bestanden.
0:51:41–0:51:44
Was da drin abgeht wissen wir nicht. So, und jetzt?
0:51:46–0:51:58
Ist es so, dass wenn wir da drin etwas schaffen, was genauso wie wir im Inneren Eigenschaften hat, die.
0:52:00–0:52:04
Zum Beispiel mit dem Leiblichen zu tun hat, mit dem Wesen zu tun haben.
0:52:04–0:52:12
Dieses Wort Quäntchen, was auch immer genannt wird, was eben Empfindsamkeit heißt, oder man kann Dinge empfinden,
0:52:13–0:52:20
das ist so eine Vorwahrnehmungsstufe, in dem man etwas empfindet, bevor man es wirklich deutlich erkennt.
0:52:20–0:52:33
Also hier versucht, diese neuronalen Netzwerke mit solchen Dingen auszustatten, ist dann irgendwie einerseits der Wunsch und andererseits die Sorge, dass man dann eben auch Wesen schafft,
0:52:34–0:52:37
die eine Form von Bewusstsein entwickeln könnten.
0:52:38–0:52:46
Und wobei das auch. Wiederum muss ich auch noch gleich was zu sagen und dann aber eventuell oder sehr wahrscheinlich darunter leiden.
0:52:48–0:52:52
Ja. Und die muss du einfach ausschalten. Ich halte. Du stellst quasi was her.
0:52:53–0:52:57
So ein bisschen wie bei Die Fliege. Kannst Ja.
Florian Clauß
0:52:58–0:53:05
Aber ich verstehe es immer noch nicht. Warum soll die darunter leiden? Ich dachte. Ich dachte. Ich. Ich dachte, ich hätte es nicht ganz verstanden. Weil,
0:53:08–0:53:09
du jetzt quasi. Jetzt nicht.
Micz Flor
0:53:09–0:53:14
Aber nehmen wir mal die Fliege. Nehmen wir mal den Film Die Fliege in der Version mit Jeff Goldblum.
0:53:15–0:53:25
Da gibt es ja dann diese diesen Wunsch, Lebewesen von A nach B zu transportieren, indem man sie in die Einzelteile zerlegt.
0:53:26–0:53:30
Dann von A nach B überträgt und dort wieder zusammenbaut.
0:53:31–0:53:34
Und dann ist da eine Fliege und Jeff Goldblum drin.
0:53:34–0:53:42
Dann werden die Atome zerlegt und wieder zusammengebaut und dann kommt Jeff Goldblum raus und verwandelt sich dann Tag für Tag in eine Fliege. So.
0:53:43–0:53:46
Also es war nicht sein Wunsch.
0:53:47–0:53:51
Er hat gedacht, er hat es irgendwie gecheckt und will es halt ausprobieren. Wusste nicht, dass Fliege mit drin ist.
0:53:51–0:53:55
Und er ist ja dann leidend. Er verändert sich auch im Wesen und er leidet.
0:53:57–0:54:02
Und ist es nicht sehr wahrscheinlich, wenn man mit Mäusen versuchen würde, so eine Art Gerät zu schaffen,
0:54:03–0:54:13
dass man wie im Film auch ganz viele halbtote Tiere dann irgendwie auf dem anderen Teil erst mal sieht, also ganz viel Leid herstellt.
0:54:13–0:54:21
Aber okay, das ist ja dann nachvollziehbar, weil du hast ja lebendige. Genau. Wir reden ja jetzt von.
0:54:24–0:54:35
Genau. Genau. Und das ist halt. Und das künstlich ist wiederum das künstlich ist halt wiederum dann eine menschliche Bias sozusagen. Also wir sagen künstliche Intelligenz.
0:54:35–0:54:37
Das entfernt sich dann auch ein bisschen von uns.
0:54:38–0:54:47
Es gibt inzwischen, glaube ich, sogar in der Physik über das Thema Bewusstsein, also können wir uns selbst erkennen und Bewusstsein haben uns.
0:54:47–0:55:00
Bewusstsein gibt es inzwischen auch da schon so eine Theorie, die andersrum denkt, die sagt, Bewusstsein ist in der Materie angelegt und komplexe Systeme sind in der Lage, immer mehr davon zu erschließen,
0:55:01–0:55:08
so als ob das quasi in der Materie ist und nicht wie wir.
0:55:08–0:55:18
Man denkt ja oft so, wenn das System komplex genug wird, dann kann es sich selbst bewusst werden und dann geht es wieder um das Selbst, um das Ich. Eigentlich reden wir doch gleich nochmal auf diese.
0:55:22–0:55:28
Oder ist es so, dass das Bewusstsein sowieso in der Welt ist? Und alles ist damit berührt?
0:55:29–0:55:36
Aber komplexe Systeme wie Menschen, einige Tiere, vielleicht auch Bäume, wissen wir nicht.
0:55:36–0:55:44
Die kommen damit schon in Berührung. In der Form, in der sie darüber reflektieren können, wie das zum Beispiel Steine nicht können.
0:55:46–0:55:53
Ja, das ist mir ziemlich esoterisch. Ja, stimmt, muss ich. Der müsste. Dann müssen wir vielleicht eine eigene Folge zu machen, weil.
0:56:08–0:56:09
Kaum dass gerade.
0:56:12–0:56:19
Es war toll, diesen Schub und Zusammenzucken. Ich dachte, es wird auch kalt. Mir ist auch echt kalt. Es ist schlecht.
0:56:19–0:56:22
Wir gehen. Wir gehen zum Auto. Also ist die Frage. Wie kriegen wir?
Florian Clauß
0:56:21–0:56:24
Also es ist die Frage, wie kriegen wir jetzt noch den Absprung?
Micz Flor
0:56:24–0:56:27
Ich mache einfach den zweiten Teil. Der zweite Teil wird folgendes sein.
0:56:29–0:56:32
Es gibt einen Begriff vom Selbst in der Psychodynamik,
0:56:34–0:56:40
Psychoanalyse, ursprünglich aber in der psychischen Dynamik. Und den würde ich gerne mal.
0:56:42–0:56:48
Ähm darstellen. Darum geht es halt. Oder? Dabei geht es darum, dass.
0:56:50–0:56:57
Freut ihn seine Idee mit dem Eis und ich dann irgendwann auch so ein selbst ich erfunden hat, weil er gemerkt hat.
0:56:58–0:57:03
Dass dieses System, was er versucht zu beschreiben, das steht auch mit einem Bild von sich selbst in Kontakt.
0:57:04–0:57:07
Wir können nicht einfach in der Welt sein, ohne ein Bild von uns zu haben.
0:57:08–0:57:13
Und das ist eine Sache, die dann, glaube ich, über das ganze 20. Jahrhundert hinweg weiter ausgetreten wurde.
0:57:14–0:57:16
Da gibt es ja dann auch so diese, diese.
0:57:19–0:57:23
Ja, wir merken es einfach, wenn du Auto fährst und du bist mit dem Auto verschmolzen.
0:57:23–0:57:27
Also, wir sind in der Lage, uns mit anderen Dingen zu verbinden.
0:57:27–0:57:35
Wir können irgendwie mit Rollerblades wie mit zwei Füßen arbeiten und so was. Das heißt, es gibt in uns ein Selbst, das entsteht.
0:57:36–0:57:41
Damit kommt man nicht auf die Welt. Man kommt aber mit der Fähigkeit auf die Welt, das zu entwickeln.
0:57:42–0:57:48
Man hat auch gemerkt, in manchen dramatischen Situation der Vergangenheit, dass das selbst nicht unbedingt entstehen muss.
0:57:49–0:57:54
Wenn es aber nicht entsteht oder nur brüchig entsteht, dann entstehen Menschen, die auch.
0:57:56–0:58:05
Manchmal große Probleme im Leben haben kann. Und dieses Selbst ist, glaube ich so der Punkt, an dem die nächste.
0:58:07–0:58:15
Ja, das wird so die nächste Aufgabe werden. Das ist, glaub ich der Holy Grail, der den Unterschied herstellt zwischen einem neuronalen Netz. Was einfach so ein.
0:58:16–0:58:26
Weißer Teig ist, der halt was kann. Egal ob das jetzt irgendwie aus Dioden gebaut ist, aus Transistoren, aus Neuronen, es ist wurscht, kann das lernen.
0:58:26–0:58:33
Man kann inzwischen auch schon mit Neuronen bestimmte Dinge lernen und die Neuronen verkoppeln sich selbst und machen was.
0:58:35–0:58:42
Und dieses Selbst ist, glaube ich so eben diese sehr, sehr, sehr unerreichbare Stufe.
0:58:44–0:58:49
Die allerdings beim Kind entsteht oder fast notwendigerweise entstehen muss.
0:58:51–0:58:58
Und weshalb ich dann denke, dass es doch spannend wäre, auch klinische Psychologie in die KI Forschung mit einzubeziehen.
0:58:59–0:59:12
Und gleichzeitig mir dann wünscht, dass eben auch hier ethische Experten und Expertinnen da mitreden dürfen, weil ich halt wirklich der Meinung bin, dass diese Form von selbst Gewahrsein.
0:59:15–0:59:18
Genau diese Grenze ist, wo man dann wirklich von ethischen Themen spricht,
0:59:19–0:59:30
und nicht mehr Ethik für Arbeit und Arbeitsmarkt und sonst was oder von Geldverteilung oder ohne, wirklich halt mit dem Produkt was man herstellt. Punkt.
Florian Clauß
0:59:31–0:59:34
Okay, spannend, großer Cliffhanger aufgebaut.
0:59:36–0:59:49
Die zweite Episode, die zweite Folge zu dem Thema kommt Ich. Ich trage das auf jeden Fall bei mir im Kopf rum, weil ich kriege es noch nicht so zusammen. Deswegen freue ich mich auf ein weiteres Gespräch.
Micz Flor
0:59:49–0:59:57
Ich muss mir das auch noch mal anhören, wenn ich diese Brustprellung weg habe. Vielleicht liegt es auch an meiner Leiblichkeit und meinem Körper, der mich da irgendwie.
Florian Clauß
0:59:57–1:00:04
Wenn selbst das dich wieder daran hindert, du selbst zu sein. Of Thrones Diese Szene, die finde ich ganz.
Micz Flor
1:00:00–1:00:05
Du kennst ja diese Szene in Game of Thrones. Diese Szene, die finde ich ganz toll.
1:00:05–1:00:09
Woodorholt. The Door. Dieser.
Florian Clauß
1:00:08–1:00:11
Für die auch jetzt ist gesagt.
Micz Flor
1:00:10–1:00:19
Es ist verraten. Und dieses hold the door, hold oder outdoor oder oder. Und er hält diese Tür zu, damit die Bösen nicht rauskommen und dann diesen Jungen, den er beschützt, umbringen könnten.
1:00:20–1:00:29
Und du merkst halt, dass so eine Situation, wo er halt so von der Tür gebunden ist, dass er sich um nichts anderes mehr kümmern kann. Und vielleicht ist meine Brust, die gerade immer wieder zumacht.
Florian Clauß
1:00:30–1:00:30
Hey.
Micz Flor
1:00:30–1:00:35
Deshalb kann ich nicht gut reden. Und deshalb hast du das Gefühl, du checks es nicht. Aber in Wahrheit habe ich es nie gesagt.
Florian Clauß
1:00:37–1:00:46
Okay. Insofern. Holla, hurra! Bis zum nächsten Mal bei eigentlich Podcast D.
1:00:47–1:00:51
Also ich wünsche dir, dass es dir bald besser geht.
Micz Flor
1:00:52–1:00:55
Danke. Beim Reden, Laufen und Atmen.
Florian Clauß
1:00:55–1:01:04
Genau. Und laufen und reden. Und atmen. Und atmen. Und genau. Also dann warten wir auf die zweite Episode.
1:01:06–1:01:15
Bei der zweite Folge der 18. Episode. Wie willst du sie eigentlich nennen? Künstliche Intelligenz.
Micz Flor
1:01:06–1:01:07
Zweite Folge der.
1:01:15–1:01:24
Also jetzt hatte ich einen Arbeitstitel, das Selbst Doppelpunkt Der heilige Gral der künstlichen Intelligenz. Forschung, Fragezeichen.
1:01:24–1:01:28
Okay, so kann ich diese Episode nicht. So wird dann wahrscheinlich die nächste heißen.
Florian Clauß
1:01:29–1:01:31
Ich bin gespannt. Vielen Dank mit.
Micz Flor
1:01:31–1:01:39
Nichts zu danken. Und schön, dass du mir so lange zugehört hast. Das ist schlimm. Ich weiß es nicht. Ich muss mir anhören, wenn ich wieder gesund.
Florian Clauß
1:01:36–1:01:41
Was ist schlimm? Ich heiße Sie also. Meinen es gut? Ja.

Mehr