"Add one egg!" - Bill Schlackman, Psychologist (In: Century of the Self)

Über eineinhalb Jahre nach unserer letzten Episode zur Künstlichen Intelligenz scheint es an der Zeit, das Thema wieder einmal anzufassen. Wir stellen beim Abgleich fest, dass wir früher viel mehr auf das Produkt fixiert waren und den Prozess dahin ignoriert haben. Doch genau da hat die KI längst die Fäden in der Hand - oder unsere Hände eingefädelt? Wir sind entspannter und vielleicht damals einfach mal wieder dem Kulturpessimismus auf den Leim gegangen, der bei jeder technischen Neuerung skeptisch aus seiner Komfortzone lugt? War die Panik vor der KI am Ende nicht doch die gleiche wie damals vor dem Internet, als Schulen schon befürchteten schließen zu müssen, weil doch alles im Internet kopiert werden könne? Die gleiche Angst wie vor Gutenbergs Buchdruckmachine? Oder der Kassette, mit der man angeblich die Musikindustrie zerstören konnte? Natürlich haben wir keine endgültige Antwort parat. Aber immerhin haben wir unsere Setups mit KI im Alltag durchgespielt und sind zu dem nicht ganz revolutionären Schluss gekommen: Am besten fährt man, wenn man sich die Zügel nicht aus der Hand reißen lässt, das Produkt als eigenes festhält und die KI bloß als nützlichen Assistenten betrachtet.

Shownotes

Mitwirkende

avatar
Micz Flor
Erzähler
avatar
Florian Clauß

Transcript

Florian Clauß
0:00:21–0:00:30
Hallo und herzlich willkommen bei eigentlich podcast episode 61 Ich bin Flo
0:00:30–0:00:33
und neben mir läuft Mitch.
0:00:33–0:00:37
Und Mitch hat uns eine Geschichte mitgebracht oder ich weiß es noch nicht.
0:00:37–0:00:43
Es ist wieder so eine von den Episoden, wo der eine nicht weiß, was der andere erzählt.
0:00:44–0:00:45
Ich bin gespannt.
0:00:46–0:00:50
Eigentlich Podcast, das ist der Podcast, bei dem wir im Laufen reden und laufend
0:00:50–0:00:58
reden. und wir sind dieses Mal auch in Grunewald und laufen hier durch den Wald.
0:00:58–0:01:02
Es ist dunkel, wir haben eine Taschenlampe dabei und wir haben auch einen Track,
0:01:02–0:01:11
den wir aufzeichnen und dem wir jetzt auch in dieser Episode nachgehen und mal
0:01:11–0:01:12
gucken, wo er uns hinführt.
0:01:13–0:01:17
Aber das Ganze könnt ihr dann auf eigentlich-podcast.de sehen,
0:01:17–0:01:21
wo wir langgelaufen sind Und auch Informationen zur Episode,
0:01:21–0:01:26
zur Folge und was Mitch noch für ein Thema hat, könnt ihr da auch nachlesen. So Mitch.
Micz Flor
0:01:27–0:01:32
Ja, jetzt aber mal los hier. Wir sind mitten im Wald und das passt irgendwie
0:01:32–0:01:33
so gar nicht zu meinem Thema.
0:01:33–0:01:36
Und ich habe es dir auch deshalb nicht gesagt, weil ich das Gefühl habe,
0:01:36–0:01:39
dass du dann sagst, oh nee, jetzt gib dir mal ein bisschen mehr Mühe,
0:01:39–0:01:45
weil es ist vielleicht ein bisschen eher beim Laufen labern und laufend labern.
0:01:46–0:01:50
Also, dass wir wirklich diesmal einen Laber-Podcast machen. Aber es ist mir
0:01:50–0:01:52
wichtig, das habe ich dir gesagt, mir ist das Thema wichtig.
0:01:52–0:01:57
Es ist ein Revisiting in gewisser Weise von einer Episode, die ich im Februar
0:01:57–0:01:58
letzten Jahres gemacht habe.
0:01:59–0:02:02
Es ist schon lange her und da hatten wir diesen drei Teile über KI.
0:02:03–0:02:07
Das Thema haben wir nochmal aufgegriffen bei Stunners of LEM so ein bisschen.
0:02:07–0:02:12
Es schwingt immer wieder auch so ein bisschen rein in jede Folge, weil dieser...
0:02:13–0:02:18
Dieser Dreiteiler damals war ja auch deshalb ein Dreiteiler,
0:02:18–0:02:20
weil das war so etwas Neues, Disruptives.
0:02:20–0:02:24
Und man hat irgendwie spekuliert, was dann mal alles wird und wie das sein kann und so weiter.
0:02:26–0:02:31
Und ich habe jetzt, und deshalb ist es mir ein Anliegen, gemerkt,
0:02:31–0:02:36
dass man jetzt das erste Mal, zumindest in meiner Umgebung, also ein großes
0:02:36–0:02:41
politisches Ereignis, eben diese Wahlen in Amerika, die anstehen,
0:02:42–0:02:49
dass da jetzt bei diesen, dass da jetzt halt so KI-Videos, Filme rauskommen und die.
0:02:52–0:02:55
Und das ist jetzt irgendwie angekommen, ist jetzt irgendwie da,
0:02:55–0:02:57
ist jetzt nicht mehr spekulativ.
0:02:57–0:03:01
Ich weiß nicht, ob das irgendwie sinnvoll ist, was ich gerade sage.
Florian Clauß
0:03:01–0:03:03
Ich versuche gerade da den.
Micz Flor
0:03:03–0:03:04
Die Brücke ist für mich zu sagen, wir
0:03:04–0:03:07
haben damals so ein bisschen darüber gesprochen, wie es wohl sein wird.
0:03:08–0:03:12
Und jetzt haben wir aber es irgendwie gelebt. So ein bisschen wie das,
0:03:12–0:03:15
was du mal gemeint hast, als ich dir oder du mir oder wer auch immer einer von
0:03:15–0:03:21
uns hat angesprochen, dass es einen Wissenschaftler gab,
0:03:21–0:03:26
der einen Lego-Roboter gebaut hat, der das komplette neuronale Netzwerk eines
0:03:26–0:03:29
Wurms eingepflanzt hatte.
0:03:29–0:03:34
Und dann ist dieser Lego im Video, dieser Lego-Roboter, wie halt so ein Wurm eben über den Boden.
0:03:34–0:03:40
So hat er sich so bewegt und hatte die gleichen perzeptiven und motorischen
0:03:40–0:03:44
Fähigkeiten. Und dann hattest du gesagt Ja, aber es ist halt kein Kaper,
0:03:45–0:03:47
deshalb ist es kein Wurm.
0:03:47–0:03:52
So und irgendwie damit hat das zu tun. Ich habe das Gefühl und da kann ich vielleicht
0:03:52–0:03:54
als erstes auch über mich reden.
0:03:54–0:03:59
Ich habe das Gefühl, dass diese Idee, die man damals hatte, die war so sehr stark am Produkt.
0:04:01–0:04:06
Jetzt kann irgendwie auf einmal alles so geschrieben werden oder Texte gibt
0:04:06–0:04:07
es quasi auf Knopfdruck.
0:04:08–0:04:12
Dann gab es diese Bilder und dann kann man irgendwie alle Kinderbücher auf einmal
0:04:12–0:04:13
auf Knopfdruck herstellen.
0:04:14–0:04:18
Und ich hatte damals in der Folge, und wer es noch nicht gehört hat,
0:04:18–0:04:23
ich möchte es mal ganz kurz zusammenfassen, Da sind zwei Sachen reingenommen.
0:04:23–0:04:29
Das eine war von Ted Zhang aus dem Magazin Nature 2000.
0:04:29–0:04:36
Im Jahr 2000 erschien eine fiktive, futuristische Geschichte.
0:04:37–0:04:45
Die damit losgeht, dass irgendwie seit 20 Jahren kein wissenschaftlicher Forschungsartikel
0:04:45–0:04:47
mehr von Menschen verfasst wurde.
0:04:47–0:04:50
Das macht alles jetzt die künstliche Intelligenz. Und es gibt dann manchmal
0:04:50–0:04:54
aber so Interfaces, wo die künstliche Intelligenz was für Menschen so rausschmeißt.
0:04:55–0:05:02
Und Menschen haben inzwischen auch eine Art, wie Bibeltext lesen,
0:05:02–0:05:07
als Wissenschaft entwickelt, um herauszufinden, was die KI wohl meint mit diesen
0:05:07–0:05:08
Texten, die sie den Menschen gibt.
0:05:08–0:05:12
Also das Ganze wird dann in einer gewissen Weise metaphysisch.
0:05:12–0:05:15
Und die KI hat alles komplett abgehängt. Das war der eine Text.
0:05:16–0:05:20
Und da haben wir ein bisschen drüber spekuliert. Der zweite Text war eben das
0:05:20–0:05:29
von De Boeres, genau, The Library of Babel oder Bücherei, ich weiß gar nicht
0:05:29–0:05:31
mehr, Bibliothek von Babel.
0:05:31–0:05:37
Da geht es darum, dass halt eben alle Bücher in einer Bibliothek sind,
0:05:37–0:05:41
die in einer bestimmten festgesetzten Seitenanzahl mit bestimmten Anschlägen
0:05:41–0:05:45
pro Seite, kann man ja einfach mechanisch eigentlich alle Bücher drucken.
0:05:45–0:05:49
Und das wird dann so ein bisschen durchgespielt. Das ist auch da dann im Prinzip
0:05:49–0:05:53
alle vergangenen Texte, alle zukünftigen Texte, alle geheimen Texte,
0:05:53–0:05:57
alle Rezepte, das gleiche Buch
0:05:57–0:06:00
mit einem Schreibfehler, mit zwei Schreibfehler, mit 100 Schreibfehler.
0:06:00–0:06:05
Also es ist natürlich eine theoretisch unendliche, aber praktisch eben doch
0:06:05–0:06:09
endliche Anzahl von Büchern, die so hergestellt werden könnte.
0:06:10–0:06:17
Und in gewisser Weise ist dieses Chat-GPT auf eine komische Art gar nicht so weit weg davon.
0:06:17–0:06:21
Weil, und das ist der dritte Text, den ich jetzt dazunehmen möchte in der Logik,
0:06:21–0:06:28
weil im Prinzip Chat-GPT ja doch nicht weiß, was es tut. So, ne?
0:06:28–0:06:30
Da gab es diesen einen Artikel, nenn ich Chris und dir auch,
0:06:31–0:06:39
wo drüber stand, dass diese Language Model, they're bullshitting.
0:06:40–0:06:44
Bullshitting ist halt ein Wort für so labern, was einfach so für sich hinlabern
0:06:44–0:06:50
und zu wissen, was man genau sagt. Im Prinzip etwas, was man auch so als Witz manchmal macht.
0:06:50–0:06:55
Du kennst vielleicht noch diese PowerPoint-Karaoke,
0:06:55–0:06:58
wo man so eine PowerPoint-Präsentation, von der man nicht weiß,
0:06:59–0:07:02
Die geht einfach los und man muss dann so spontan irgendwie erzählen,
0:07:02–0:07:03
was es ist. Und das ist total lustig.
Florian Clauß
0:07:03–0:07:08
Ja, das war in den 2000ern, war das auch lange her. In den Clubs haben die das auch gemacht.
Micz Flor
0:07:09–0:07:12
Aber das ist eben diese Form von Bullshitting. Bullshitting heißt im Englischen
0:07:12–0:07:16
im Prinzip, dass du einfach mal irgendwie erzählst und hoffst keinem fällt auf,
0:07:16–0:07:18
dass du überhaupt keine Ahnung hast, worüber du redest.
0:07:19–0:07:21
Und ChatGPT macht das ja in gewisser Weise.
0:07:22–0:07:26
Und deshalb kriegst du dann halt auch immer solche komischen Effekte,
0:07:26–0:07:31
dass ChatGPT per se keine Realität ist, sondern erst durch das Gelesen oder
0:07:31–0:07:34
Redigiertwerden wirklich Bedeutung bekommt.
0:07:35–0:07:39
Also wir haben damals, deshalb vielleicht dieses Revisiting,
0:07:39–0:07:43
auf der einen Seite haben wir damals immer gedacht, okay, jetzt gibt es auf
0:07:43–0:07:47
einmal alles an Musik und in gewisser Weise ist es auch wahr.
0:07:48–0:07:52
Es ist sicherlich so, dass halt schon die ersten Cafés irgendwelche KI,
0:07:52–0:07:57
Minimal Techno Tracks laufen lassen, weil das wirklich einfach auch keiner interessiert,
0:07:57–0:07:59
was es ist und keiner wirklich zuhört.
0:08:01–0:08:04
Aber es sind nicht per se Produkte, sondern es sind Atmosphären,
0:08:04–0:08:05
die da geschaffen werden.
0:08:06–0:08:10
Und das Zweite ist, dass ich einfach mit dir auch ein bisschen drüber reden
0:08:10–0:08:14
wollte, wenn man das nochmal so abgleicht mit den Gedanken von damals.
0:08:16–0:08:20
Wie erleben wir jetzt den Umgang mit KI? Wie nutzen wir das?
0:08:20–0:08:24
Und was macht das mit uns? Was funktioniert und was funktioniert nicht?
0:08:24–0:08:27
Und das dritte ist dann so ein bisschen auch diese generelle,
0:08:27–0:08:33
schon etwas ältere, aber finde ich auch interessante Haltung gegenüber Science Fiction.
0:08:34–0:08:40
Das hat Science Fiction das alles immer so erfindet, den Möglichkeitsraum,
0:08:40–0:08:44
also das Mögliche irgendwie beschreibt und dann die Technologie hinterherkommt
0:08:44–0:08:46
und das dann irgendwie entwickelt.
0:08:47–0:08:50
Und vor dem Hintergrund habe ich dann gedacht, wir haben vielleicht auch mal...
0:08:51–0:08:56
Die Pflicht, dass wir das nochmal so mitreflektieren, weil wir jetzt ja auch
0:08:56–0:08:58
in diesem digitalen Raum drin sind.
0:08:58–0:09:02
Deshalb sind wir nicht wichtiger oder unwichtiger als irgendwas anderes,
0:09:02–0:09:03
möchte uns auch nicht überhöhen.
0:09:03–0:09:09
Aber irgendwie gehört das ja dazu, dass wir jetzt einfach nochmal auch reflektieren
0:09:09–0:09:14
und auch Texte und Erzählungen schaffen, die vielleicht ein bisschen darauf gucken,
0:09:14–0:09:20
was ist die Interaktion, so Mensch-Maschine-Interaktion.
0:09:20–0:09:25
Nicht nur ist dieses Gedicht toll, ist der Limerick super, ist dieses Bild toll
0:09:25–0:09:31
oder diese Stimme original, sondern wie arbeiten wir damit, was macht das mit uns?
0:09:32–0:09:36
Gibt es was, was uns Angst macht oder ist die Angst schon verflogen?
0:09:37–0:09:41
Und als ich darüber nachgedacht habe, das vielleicht noch so als Einleitung,
0:09:41–0:09:43
dann können wir einfach mal so loslabern.
0:09:43–0:09:46
Da war ja auch eben diese Frage so, oh Gott, jetzt ist diese ganze Musik,
0:09:47–0:09:48
das wird jetzt alles irgendwie.
0:09:50–0:09:53
Es gibt unendlich viele Beatles-Lieder und keiner weiß mehr,
0:09:53–0:09:56
was wirklich Beatles waren und was nicht, weil man kann ja einfach so draufdrücken
0:09:56–0:09:58
auf den Knopf, dann kommt ein Beatles-Lied raus.
0:09:59–0:10:02
Nicht, dass ich noch eins bräuchte, ich bin nicht der größte Beatles-Fan,
0:10:02–0:10:05
aber zur Anschaulichkeit.
0:10:05–0:10:10
Und rückblickend, ich dann dachte, ja gut, aber andererseits ist es ja eh immer schon passiert,
0:10:10–0:10:13
dass es dann irgendwann drum computer gab
0:10:13–0:10:16
und dann brauchte man kein schlagzeug mehr und dann gab es techno dann
0:10:16–0:10:19
konnte man also im laptop machen also irgendwie hat die ganze zeit
0:10:19–0:10:26
schon gerade in der musik technische innovationen neue dinge ermöglicht und
0:10:26–0:10:32
andere dinge banalisiert ja egal ob jetzt samples von cellos genommen hast statt
0:10:32–0:10:36
ein cello zu spielen oder eben drum machines genommen hast,
0:10:36–0:10:41
anstatt ein Schlagzeuger zu sein oder anzuheuern.
0:10:41–0:10:46
Es gab immer schon eine Veränderung und jetzt ist es natürlich in gewisser Weise
0:10:46–0:10:50
eine qualitative Veränderung, weil halt dieser Prompt eingegeben wird und dann
0:10:50–0:10:52
kommt hinten das Produkt raus.
0:10:54–0:10:57
Aber für mich zumindest wirkt es jetzt
0:10:57–0:11:07
gerade anders als diese unfassbare disruptive nature, die ich so vor,
0:11:07–0:11:11
ja, das ist auch bald zwei Jahre schon her, wahrgenommen habe.
0:11:11–0:11:14
Da war es ja wirklich so richtig krass. Und jetzt ist es halt so da.
0:11:14–0:11:20
Und eben im Wahlkampf gibt es jetzt gerade, es hat ja gerade Trump dieses,
0:11:20–0:11:24
dieses They're eating dogs, they're eating cats.
0:11:24–0:11:31
Und dann ist es unfassbar, wie schnell da Videos und Lieder und Remixes,
0:11:31–0:11:37
das ist wirklich so, das kommt fast in Echtzeit da rein.
0:11:37–0:11:41
Und die Timeline ist komplett zugespült mit so Sachen.
Florian Clauß
0:11:42–0:11:46
Aber ich meine, das ist ja nichts anderes als noch so diese Memes.
0:11:47–0:11:53
Also ich finde da von der Art her ist es nichts Neues, es ist vielleicht von
0:11:53–0:11:57
der Qualität her jetzt was Neues hier, wo du dann halt irgendwie,
0:11:57–0:12:01
ich habe jetzt auch so ein Trump-Video gesehen, wo er dann halt diesen Satz
0:12:01–0:12:06
sagt und dabei siehst du halt Noten und dabei spielt dann halt so eine Trompete.
Micz Flor
0:12:09–0:12:14
Beste was dazu gesehen habe kann ich nur muss ich ja dann auch suchen und verlinken
0:12:14–0:12:19
aber da hat jemand einfach schon peanuts die titelmelodie angelegt und das passt
0:12:19–0:12:25
total drauf bis hinten haut es ein bisschen ab aber es passt erstaunlich gut also.
Florian Clauß
0:12:25–0:12:32
Ich glaube die die möglichkeit auch die kreativen oder output der ist da schon
0:12:32–0:12:34
professioneller geworden das kann man sagen Ja,
0:12:34–0:12:40
aber was du in der Einleitung gesagt hast, das habe ich jetzt so ein bisschen versucht zu mappen.
0:12:41–0:12:47
Ich fand zum Beispiel so vor, als das dann vor, wann waren das,
0:12:47–0:12:50
acht Jahren, als dann halt quasi...
0:12:52–0:12:56
Clinton gegen Trump und dann fing es da eigentlich mit diesem ganzen Deepfake
0:12:56–0:13:01
und da gab es diese ganzen Wahlgeschichten, da war das noch nicht so bekannt
0:13:01–0:13:05
und dann war das halt so und dann kamen ja auch diese ganzen,
0:13:06–0:13:11
Berichte erst darüber was jetzt Facebook für eine Rolle wie dann halt die Daten
0:13:11–0:13:14
dafür genutzt würden, um auch die.
0:13:16–0:13:21
Uneinigen Wähler dann auch umzustimmen Ja, da empfand ich das viel krasser,
0:13:21–0:13:23
weil es halt noch nicht bekannt war.
0:13:23–0:13:29
Und jetzt ist es ja so, und ich finde, das ist halt so, jetzt haben sich ja
0:13:29–0:13:31
sämtliche Sehgewohnheiten schon darauf angepasst.
0:13:32–0:13:34
Also wenn dann halt irgendwelche Videos kommen und so, wird,
0:13:34–0:13:36
ah ja, KI generiert, mach mal weiter.
0:13:36–0:13:45
Also du kriegst das auch ziemlich schnell, das Urteil und die Outputs, die dann laufen,
0:13:45–0:13:53
die beeindrucken mich gar nicht mehr so doll, sondern da wird man so ein bisschen
0:13:53–0:13:54
abgebrühter, würde ich mal sagen.
0:13:54–0:14:00
Es ist aber auch so eine gewisse Medienkompetenz, die sich da jetzt auch in
0:14:00–0:14:02
der Breite dann durchgesetzt hat.
0:14:05–0:14:08
Aber vor zwei Jahren haben wir, glaube ich, auch eine Sendung gemacht,
0:14:08–0:14:14
wo wir schon gesagt haben, mit der Musik, dass die sich dann generieren wird und so weiter.
0:14:14–0:14:18
Das war, glaube ich, die Folge, also die erste Tonabnähe.
Micz Flor
0:14:18–0:14:19
Draußen in Brandenburg.
Florian Clauß
0:14:19–0:14:23
Ja, in Brandenburg über Aufzeichnungssysteme.
Micz Flor
0:14:23–0:14:26
Ja, das weiß ich auch noch. Während wir drüber sprachen, wurde mir das dann erst klar.
Florian Clauß
0:14:26–0:14:30
Ja, und ich fand, das war schon eine visionäre Folge von uns jetzt,
0:14:31–0:14:35
wo wir einen gewissen Prophezeiungsgrad dann, also da haben wir auch schon so
0:14:35–0:14:36
ein bisschen gesponnen, ja.
0:14:37–0:14:42
Und ich muss dir verraten, ich habe auch eine Folge in Vorbereitung über KI und Filmwirtschaft.
Micz Flor
0:14:43–0:14:44
Ah, okay.
Florian Clauß
0:14:44–0:14:48
Jetzt mache ich vielleicht das nächste Mal. Vielleicht braucht man da jetzt
0:14:48–0:14:52
nicht so tief reinzugehen, weil das wollte ich jetzt nochmal nächstes Mal machen.
0:14:54–0:14:58
Und, ja, das ist auch.
Micz Flor
0:14:58–0:15:01
Finde ich, also mir ging es wirklich eher natürlich schon um die Nutzung,
0:15:01–0:15:05
aber jetzt vielleicht nicht aus so einem wirtschaftlichen, sondern so hobbyistisch,
0:15:05–0:15:09
wie wir das tun. und auch eher von dem,
0:15:12–0:15:15
Hüllt uns das aus? Geht das an uns vorbei?
0:15:16–0:15:22
Ist das, keine Ahnung, ist das vielleicht doch wieder so, als damals Fotokopierer
0:15:22–0:15:24
waren und alle dachten, oh Gott, Hilfe!
0:15:25–0:15:30
Alles geht kaputt, das Copyright wird nicht laufen. Dann kam Kassetterekord,
0:15:30–0:15:32
oh Gott, man kann das aufnehmen, das kann doch nicht sein.
0:15:33–0:15:36
Also jedes Mal gab es dann so Kultur und Wirtschaft.
Florian Clauß
0:15:36–0:15:39
Ja, ich glaube, es hat aber schon eine neue Qualität. Also ich glaube schon,
0:15:39–0:15:46
in dieser Dimension und dieser Umfassenden hat es schon so, dass es raumgreifender
0:15:46–0:15:48
ist als nur der Fotokopierer.
0:15:49–0:15:55
Also auch raumgreifender ist als das iPhone. Also weil es halt so viele Bereiche durchdringen wird.
0:15:57–0:16:00
Und was ich jetzt von meinem...
Micz Flor
0:16:00–0:16:03
Ja, das wäre mir vielleicht, glaube ich, immer wichtig, dass wir jetzt nicht
0:16:03–0:16:06
gucken, wie es sein wird, aber nicht weiter spekulieren.
0:16:06–0:16:08
Können wir vielleicht zum Schluss, wenn wir eine tolle Idee haben,
0:16:08–0:16:11
aber eher so zurückgucken,
0:16:13–0:16:18
Was hat sich verändert in dir und in deiner Nutzung von davon?
0:16:19–0:16:21
Die Technik ist ja auch verfügbarer und sowas.
Florian Clauß
0:16:22–0:16:32
Also vielleicht kann ich dir mein Setup erklären, wie ich quasi arbeite mit den KI-Tools.
0:16:33–0:16:43
Also in meiner IDE, ich benutze IntelliJ, da habe ich zum Beispiel CoPilot mit drin.
0:16:43–0:16:52
Also es ist so, dass diese Autovervollständigung von Code, das ein GitHub-Artefakt ist.
0:16:52–0:16:57
Also ein GitHub-Plugin, was man sich da reinnimmt, ist Lizenz,
0:16:57–0:17:01
also kostenpflichtig, aber kriege ich natürlich für eine Arbeit gestellt.
Micz Flor
0:17:01–0:17:07
Das ist das, wo doch so eine Sammelklage gegen Microsoft läuft wegen Copyright-Verletzungen.
Florian Clauß
0:17:07–0:17:10
Ja, da laufen ja viele Sammelklagen, aber ich weiß nicht, wie da der Stand ist.
0:17:11–0:17:16
Aber das nutze ich eigentlich dauernd. Das heißt, der schlägt mir dauernd irgendwelche
0:17:16–0:17:20
Sachen vor und ist dann manchmal ein bisschen nervig.
0:17:21–0:17:26
Aber ja, das ist so wie eine Autovervollständigung auf dem iPhone.
0:17:28–0:17:31
Und dann okay, mache ich das. Also es ist selten, dass ich dann halt direkte
0:17:31–0:17:34
Direktiven an dieses Co-Pilot stelle.
0:17:35–0:17:39
Also Direktiven heißt, du kannst ja dann halt quasi so in Kommentaren sagen,
0:17:39–0:17:47
mach mir mal einen Loop und iteriere mir dann halt so und so viele Testobjekte,
0:17:47–0:17:49
die diese Attribute haben.
0:17:50–0:17:52
So, das kannst du ja dann so machen und dann spuckt die dir was aus.
0:17:53–0:17:57
Das mache ich eigentlich nicht so so, für solche coolen Sachen,
0:17:57–0:17:59
da greife ich schon ganz gerne auf.
0:18:00–0:18:06
Das richtige Chat-GBT zurück und mache das dann über die Oberfläche oder aber,
0:18:06–0:18:09
ich habe noch so ein API-Key, wo ich dann,
0:18:11–0:18:16
auch direkt die Dienste von OpenAI, da gibt es ja auch verschiedene Modelle,
0:18:16–0:18:22
nicht nur Chat-Modelle, sondern DALI, das Generierungsmodell für Bilder oder
0:18:22–0:18:24
es gibt Text-to-Speech und.
0:18:26–0:18:28
Oder halt irgendwie Whisper,
0:18:28–0:18:32
was dann eben Speech-to-Text macht das kannst
0:18:32–0:18:34
du alle die ganzen modelle kannst du halt mit dem api key dann
0:18:34–0:18:39
direkt ansprechen du brauchst dann eben so ein programm ich glaube ich hab dir
0:18:39–0:18:47
das mal gezeigt also in python wo du dann halt quasi ganz einfach diese imports
0:18:47–0:18:53
machst und dann halt diese sachen zusammenstecken kannst um um dann so ein Output zu generieren.
0:18:54–0:18:57
Das nutze ich auch relativ häufig.
0:18:58–0:19:07
Am meisten, also das sind so diese ganzen Preise, wo du halt was zahlen musst für.
0:19:07–0:19:13
Ja, das, was ich dann halt so in dieser Testversion oder in dieser Free-Version
0:19:13–0:19:19
habe, das ist jetzt so einmal dieser normale Chat von ChatGBT,
0:19:19–0:19:21
von OpenAI, also ChatGBT.
0:19:22–0:19:28
Als Browser-Oberfläche und in der gleichen Form habe ich auch Claude,
0:19:28–0:19:33
das ist eine andere Textassistenz und Perplexity.
Micz Flor
0:19:33–0:19:34
Wie heißt das?
Florian Clauß
0:19:35–0:19:43
Perplexity. Das ist so quasi die, die, ja, die bemühen sich da so eine akademische,
0:19:44–0:19:50
also der gibt dir dann immer irgendwie, warte mal, wir sind jetzt gerade hier in der Wegkreuzung,
0:19:53–0:19:57
der gibt dir dann auch immer die Quellen dazu. Das heißt, wenn du zum Thema,
0:19:57–0:20:02
dann kannst du diesen Pro-Filter und dann hast du nur so und so viel Abfragen
0:20:02–0:20:03
für die nächsten vier Stunden.
0:20:04–0:20:06
Also es ist dann immer limitiert auf Abfragen.
0:20:07–0:20:11
Und dann liefert der dir aber, du fragst dann halt was und dann gehst du in
0:20:11–0:20:16
den Pro-Level rein und dann liefert der dir auch immer die Quellen dazu. zu.
0:20:17–0:20:21
Da ist schon so ein bisschen dieses Fact Checking gleich mit implementiert.
0:20:22–0:20:26
Meistens nutze ich da wirklich alle drei Tools, um eben auch nochmal so ein
0:20:26–0:20:29
Fact Checking dann halt auch gegeneinander laufen zu lassen.
0:20:30–0:20:33
Wobei Perplexity dann auch nichts anderes ist.
0:20:34–0:20:39
Als ein Mood von Claude oder von Chat-GBT.
0:20:39–0:20:42
Es ist ganz lustig, dass ich nämlich dann bestimmte Fragen stelle,
0:20:42–0:20:48
Perplexity, und dann kommen genau die gleichen Antworten auch bei Chat-GBT raus,
0:20:48–0:20:50
in der gleichen Formulierung. Der hat ja so eine Art Cache.
0:20:51–0:20:56
Das heißt, dann nimmt er da die gleichen Antworten, merkst du dann an der Stelle.
0:20:56–0:21:00
Du kannst natürlich dann auch den Chaos-Level oder die Seed hochstellen,
0:21:00–0:21:05
wo er dann mehr halluziniert. und dann halt auch ein bisschen eine Variation in den Antworten gibt.
0:21:06–0:21:09
Aber normalerweise willst du das nicht haben, sondern du willst halt irgendwie
0:21:09–0:21:11
bei den guten Antworten bleiben.
0:21:12–0:21:15
Ich glaube, wir können hier weitergehen.
0:21:16–0:21:24
Und ich bin so froh um diese Tools, weil die sind von der Qualität her,
0:21:24–0:21:30
also teilweise kann ich mich mit Claude so unterhalten und so ganz gezielt Fragen stellen.
0:21:30–0:21:33
Also so bereite ich mich jetzt auch gerne auf die Sendung immer vor,
0:21:33–0:21:38
dass ich dann halt wirklich so ganz gezielte Fragen stellen kann,
0:21:38–0:21:42
die mir dann beim Thema durchdenke, durch den Kopf gehe.
0:21:42–0:21:48
Und ich kann die dann halt viel spezifischer stellen als früher mit Google oder
0:21:48–0:21:51
mit Startpage nutze ich als Klon für Google.
0:21:51–0:21:59
Ich kriege viel bessere Antworten und was ich dann natürlich auch immer mache,
0:21:59–0:22:05
dann halt bei den Antworten zu gucken, dass ich dann halt nochmal auf Wikipedia und so weiter schaue,
0:22:05–0:22:11
dass das halt auch jetzt nicht irgendwie Blödsinn ist, was bei mir erzählt wird.
0:22:13–0:22:22
Aber die Qualität von den Assistenzsystemen ist so gut, dass ich mir kaum vorstellen
0:22:22–0:22:23
kann, dass es besser wird.
0:22:24–0:22:26
Also ich glaube, da haben wir schon so einen Punkt erreicht,
0:22:26–0:22:30
dass du da wirklich so einen Dialog gehen kannst, wie so ein Gegenüber,
0:22:31–0:22:33
mit dem man sich dann halt richtig unterhalten kann.
0:22:35–0:22:37
Und ich weiß nicht, wie geht es dir damit?
Micz Flor
0:22:38–0:22:43
Ja, also erst mal stimmt es, dass ich diese API-Schnittstelle,
0:22:43–0:22:44
die du da hast, auch haben wollte,
0:22:44–0:22:52
weshalb mein Rechner dann irgendwie beim Upgrade von Ubuntu 18.4 auf 22.4 eingefroren
0:22:52–0:22:55
ist und ich dann Gott sei Dank ein Backup hatte.
Florian Clauß
0:22:56–0:22:57
Ich war schuld, ja.
Micz Flor
0:22:57–0:23:01
Nein, du warst nicht schuld, aber ich konnte die Python-Version,
0:23:01–0:23:07
die ich brauchte, um die Library... Also es ging, deshalb habe ich allein sieben
0:23:07–0:23:08
Stunden gebraucht, bis ich gecheckt habe.
0:23:08–0:23:11
Ich habe dann mit ChatGPT versucht, das da einzurichten.
0:23:12–0:23:19
Und ChatGPT war ja dann quasi noch älter. Das kannte ja seine neuesten APIs gar nicht.
0:23:19–0:23:23
Und hat mir die ganze Zeit eben dann Tipps von vor ein paar Jahren gegeben.
Florian Clauß
0:23:23–0:23:25
Also du hast das alte Modell gehabt?
Micz Flor
0:23:26–0:23:32
Ja, und das war wirklich verwirrend bis hin zu dem Punkt, dass ich letztendlich
0:23:32–0:23:39
begriffen habe, dass Python, was noch, ich hätte das manuell installieren müssen oder compilen müssen.
0:23:40–0:23:43
Und da habe ich gedacht, ach komm, scheiß drauf und wollte alles neu aufsetzen
0:23:43–0:23:44
und dann ist es mir abgeschmiert.
0:23:45–0:23:48
Und dann musste ich alles neu aufsetzen. Das hat mich viel Zeit gekostet.
0:23:48–0:23:51
Das war direkt vor den Sommerferien und deshalb habe ich noch nichts,
0:23:52–0:23:57
jetzt, mein Rechner läuft gerade erst wieder, noch nichts wirklich gemacht.
0:23:57–0:24:01
Aber ich möchte auch diese Assistenz haben.
Florian Clauß
0:24:02–0:24:06
Das läuft ja einfach im Browser, da brauchst du ja nicht viel IDE.
0:24:08–0:24:14
Im Browser habe ich ja meine Fenster auf, wo dann Claude läuft,
0:24:14–0:24:18
wo dann Perplexity läuft und wo ChatGBT läuft.
0:24:18–0:24:27
Und ChatGPT hat jetzt auch in der Free-Version auch das 4.0-Modell.
Micz Flor
0:24:27–0:24:29
Genau, das geht automatisch an und dann irgendwann auf.
Florian Clauß
0:24:29–0:24:35
Irgendwann ist die Request aus, dann machst du noch einen Chat auf oder du wechselst das Modell.
0:24:36–0:24:39
Oder du wechselst quasi den Assistenten.
0:24:42–0:24:46
Ich habe mir aber auch überlegt, ob ich nicht irgendwie 20 Dollar im Monat in
0:24:46–0:24:50
die Hand nehme und mir dann einfach für Claude eine Assistenz kaufe.
0:24:50–0:24:52
So eine Lizenz meine ich.
Micz Flor
0:24:53–0:24:56
Ja, in gewisser Weise denke ich auch, dass diese, also von wegen,
0:24:56–0:25:04
dass man eh für Handy und alles mögliche ausgegeben hat, dann ist das wirklich,
0:25:04–0:25:07
denke ich, gut angelegtes Geld, weil mir geht es genau wie dir.
0:25:07–0:25:13
Ich finde diese Assistenz sehr hilfreich und das Fragen stellen,
0:25:13–0:25:17
das war ja was, das weiß ich noch vor zwei Jahren, das habe ich halt öfter schon
0:25:17–0:25:22
gehört, dass Leute gesagt haben, ich finde KI super, weil ich bin gerade im
0:25:22–0:25:28
PhD und ich traue mich, KGBT oder ich sage jetzt mal abstrakt KI,
0:25:28–0:25:34
de facto war es immer KGBT, aber KI zu fragen, was ich meinen Betreuer eben nicht zu fragen traue.
Florian Clauß
0:25:34–0:25:38
Genau, das sind echt so die Helmschwellen, die wegfallen. Das Einzige,
0:25:38–0:25:42
wo ich vielleicht noch Angst habe, dass die halt solche Fragen in meinem Profil
0:25:42–0:25:45
gespeichert werden. Aber das ist ja auch egal.
Micz Flor
0:25:45–0:25:47
Das wird ganz sicher so sein, weil...
Florian Clauß
0:25:47–0:25:49
Ja klar, der hat so ein Erinnerungswindow.
Micz Flor
0:25:50–0:25:54
Und das Ding ist halt, das war, glaube ich, bei Alexa.
0:25:54–0:25:58
Also ich will jetzt nicht das unter Vorbehalt,
0:25:58–0:26:02
aber ich habe mal einen längeren Blogpost gelesen, wo jemand mitbekommen hat,
0:26:02–0:26:05
weil bei irgendwelchen rückfragen mit alexis dann hat
0:26:05–0:26:09
er auf einmal seine fragen die er alexa gestellt
0:26:09–0:26:11
hat als mp3 ist zur prüfung noch mal
0:26:11–0:26:14
zugeschickt bekommen von oder irgendwie sowas also es
0:26:14–0:26:19
war wurde nicht gelöscht da wurde quasi backtrack record von seinen fragen aber
0:26:19–0:26:26
egal was ich sagen wollte ist dass es mir nämlich auch auffällt und das ist
0:26:26–0:26:29
dann irgendwie auch so was menschliches und da geht es mir so ein bisschen rum
0:26:29–0:26:33
eben diese mensch-maschine beziehung der wieder ein bisschen zu leuchten und nicht im Sinne von,
0:26:33–0:26:36
wie ist es, höher oder sowas.
Florian Clauß
0:26:36–0:26:39
Nicht, dass ich mich verliebe in Claude?
Micz Flor
0:26:39–0:26:40
Ja, genau. Nee, das nicht.
0:26:43–0:26:48
Dass man darin vorkommt. Das glaube ich. Weil diese Sache, da erinnere ich mich,
0:26:48–0:26:51
wo wir drüber gesprochen haben, waren über Produkte zu sprechen.
0:26:51–0:26:54
Wir haben darüber gesprochen, dann ist das Lied ja schon fertig oder so.
0:26:55–0:27:00
Oder der Text ist ja schon da. Und das ist ja dann eben genau das Gleiche wie bei Bochers.
0:27:00–0:27:02
Der Text ist ja eh schon da. Der ist ja einfach nur möglich.
0:27:02–0:27:03
Deshalb ist er schon geschrieben.
0:27:06–0:27:10
Dann ist es aber jetzt so, dass wenn man in so einen Assistenzmod geht,
0:27:10–0:27:14
da hatte mir der Schlagzeuger neulich, ich weiß gar nicht, wie es hieß,
0:27:14–0:27:16
hat mir einen Link geschickt, hier guck mal, hö, hö, hö, da kann man eben,
0:27:17–0:27:20
gibst einen Text ein und welches Genre und dann macht er dir so ein Lied.
0:27:21–0:27:23
Und die klangen auch irgendwie alle ganz gut und so.
0:27:25–0:27:30
Aber es hat mich nicht gepackt. Ich hatte da nicht mehr irgendwie so Bock drauf.
0:27:30–0:27:33
Und da habe ich so drüber nachgedacht, jetzt ist es doch da.
0:27:34–0:27:38
Jetzt kann ich doch sagen, mach mir eine ganze Platte wie so age-appropriate
0:27:38–0:27:40
wie Pixies, aber nicht wie Pixies.
0:27:41–0:27:45
Also das ist doch jetzt das Tool da, wo man das nicht mehr selber komponieren
0:27:45–0:27:47
muss und nicht mehr selber machen muss.
0:27:47–0:27:50
Aber dann habe ich ja vor allem mal gemerkt, nee, diese Knack- und Backwerbung
0:27:50–0:27:52
mit den Croissants, die ist schon richtig.
0:27:53–0:27:57
Und dann fragen sie, wer hat es gemacht? Und dann sagst du, ich habe es gemacht.
0:27:58–0:27:59
Kannst du dich an die erinnern?
0:28:00–0:28:01
Knack und Back, das waren so Croissants.
0:28:03–0:28:03
Kennst du noch?
Florian Clauß
0:28:03–0:28:05
Ja, klar, wo du so aufhauen musst.
Micz Flor
0:28:05–0:28:06
Da siehst du Kinder.
Florian Clauß
0:28:06–0:28:08
Dann kann man so rausgebollt.
Micz Flor
0:28:08–0:28:12
Du kannst raus und dann guckst du, wer es macht. Ich habe es gemacht.
0:28:12–0:28:16
Und auch, das hat sich ja gleich mal geschickt, in der Century of the Self,
0:28:16–0:28:20
diese BBC-vierteilige Doku, da gibt es auch einen Bericht über so die ersten
0:28:20–0:28:27
Consumer Surveys und Zielgruppen, also wo Psychologie eingesetzt wurde,
0:28:27–0:28:30
wo die einen so ein Backprodukt, das war so ein Fertekuchen,
0:28:30–0:28:34
den konntest du einfach nur Wasser rein oder Milch rein, ich weiß gar nicht mehr,
0:28:34–0:28:36
und dann quirlen.
0:28:36–0:28:42
Und dann war der leckere Kuchen fertig, aber das Ding hat keine Frau gekauft
0:28:42–0:28:46
und dann haben die das halt dann wirklich mal so psychologisch analysiert und
0:28:46–0:28:50
geguckt und haben halt gemerkt, dass die Frauen sich schämen würden, ihr Mann,
0:28:51–0:28:54
der die jetzt war noch in den 50ern, ihr Mann, der ihnen die ganze Zeit das
0:28:54–0:28:59
Geld und Arbeit und sowas, dass sie dann so Fertigkuchen machen und den nicht
0:28:59–0:29:00
wirklich machen, sondern einfach nur backen,
0:29:02–0:29:09
Und dann haben die völlig überflüssigerweise das Rezept verändert. Es war nicht notwendig.
0:29:09–0:29:15
Der einzige Unterschied war, add one egg, also ein Ei dazu machen.
0:29:15–0:29:19
Das heißt, du hast die Backmischung, ein Ei, Milch, Quirlen und dann ist das
0:29:19–0:29:22
Ding weg wie geschnitten Brot.
0:29:22–0:29:24
Das war dann der Schlager, der hat komplett in jedem Haushalt.
Florian Clauß
0:29:24–0:29:29
Das war dann genau diese Portion mit do-it-yourself, die das halt dann...
Micz Flor
0:29:29–0:29:33
Genau. Wer hat es gemacht? Ich habe es gemacht. Ich habe gebacken.
0:29:33–0:29:35
Es ist kein Fertigkuchen.
0:29:35–0:29:38
Dieses eine Ei aufschlagen war genau der Unterschied.
0:29:38–0:29:41
Und irgendwie habe ich da wieder dran denken müssen, an diese Anekdote,
0:29:42–0:29:43
weil ich denke, das passiert jetzt gerade.
0:29:44–0:29:50
Wenn man es benutzt, dann hilft es einem, die eigenen Interessen,
0:29:50–0:29:56
Fährten, Gedanken irgendwie zu strukturieren, zu konkretisieren.
0:30:02–0:30:08
Und dass das so leicht annehmbar ist und gleichzeitig auch eine Grenze darstellt,
0:30:08–0:30:11
das finde ich, war für mich eine interessante Erfahrung.
0:30:11–0:30:14
Mir geht es genau wie dir und wahrscheinlich geht es vielen so,
0:30:14–0:30:20
die sagen, ich möchte, dass es ich bin und gleichzeitig genieße ich es,
0:30:20–0:30:24
dass ich die Arbeit, die ich machen könnte, nicht mehr machen muss.
0:30:24–0:30:28
Und dann ist es doch so, dass es zuarbeitet und nicht mehr das Produkt herstellt.
0:30:28–0:30:34
Also nicht meine Doktorarbeit, sondern ich habe einfach nur bessere Werkzeuge,
0:30:34–0:30:38
mit denen ich zusammenstelle und zusammenklebe.
Florian Clauß
0:30:38–0:30:44
Ja, ich glaube, das, was mir dann halt auch noch mal so von diesem System,
0:30:45–0:30:49
von diesem Assistenzsystem, dann,
0:30:52–0:30:58
wo ich merke, dass ich besser bin, geworden bin, ist einfach in der Präzision der Fragen.
0:30:59–0:31:04
Also da gebe ich mir auch Mühe, wenn ich mir ganz präzise eine Frage stelle.
Micz Flor
0:31:04–0:31:08
Wollen sich jetzt auch die Leute in deinem Team, dass du das gut geübt hast.
Florian Clauß
0:31:11–0:31:15
Mann, hast du gut gefragt heute. Jetzt sind die Anforderungen klar.
0:31:17–0:31:20
Aber das ist, glaube ich, das, was diese Systeme auch schulen.
0:31:23–0:31:27
Und klar, dann ist es halt so diese, ich meine, es sind zwei verschiedene Prozesse.
0:31:27–0:31:30
Das eine ist halt, wo du hinten raus ein Bild bekommst.
0:31:30–0:31:34
Und das ist, glaube ich, nochmal so viel mehr. Es ist noch viel mehr Kuchen,
0:31:34–0:31:40
als jetzt so Antworten dann halt, die man dann weiterverarbeitet.
0:31:41–0:31:47
Also da sind ja noch mehr Stufen von Backprozessen drin, bevor du dann halt
0:31:47–0:31:51
irgendwie hinten den Kuchen rausbekommst. Denn bei dem Bild ist es ja so,
0:31:51–0:31:55
du promptest was und dann kommt halt quasi das fertige Bild und du kannst dann
0:31:55–0:31:56
nochmal irgendwie so gewichten.
0:31:56–0:31:59
Ja, du musst dann nochmal anders prompten, blablabla. Aber bis du dann halt
0:31:59–0:32:06
irgendwie so Text dann so schaffst, ja, da sind noch mehr, will ich mal behaupten,
0:32:06–0:32:06
mehr Zwischenschritte drin.
Micz Flor
0:32:08–0:32:12
Das auf alle Fälle. Und es ist aber auch wieder so, dass mit den Bildern,
0:32:12–0:32:17
ich habe zum Beispiel von Rotkäppchen das Bild, habe ich ja mit Dalli gemacht.
Florian Clauß
0:32:18–0:32:19
Ja, im frühen Modell.
Micz Flor
0:32:20–0:32:22
Genau, die Pixeln.
Florian Clauß
0:32:22–0:32:24
Das ist ganz schlecht.
Micz Flor
0:32:24–0:32:31
Rotkäppchen eating Spaghetti. Und der heiße Stuhl von Gestalttherapie mit den
0:32:31–0:32:35
Schlammen, das habe ich auch mit Dalli gemacht. Und das war so ein Moment,
0:32:35–0:32:37
wo das auch irgendwie Spaß gemacht hat.
0:32:37–0:32:41
Und du hast ja auch für Solaris die Bilder mit Dalit reingemacht.
0:32:44–0:32:52
Und ich finde, dass das auch schön ist. Aber es bleibt trotzdem irgendwie so contained.
0:32:52–0:32:55
Wir sind jetzt natürlich nicht auf der journalistischen Ebene und gucken,
0:32:55–0:33:00
was ist der Shooter? War das jetzt ein echtes Foto von dem oder nicht? Oder war da hinten?
0:33:01–0:33:07
Darum geht es mir jetzt gerade gar nicht. Das ist nochmal eine ganz andere Frage,
0:33:07–0:33:12
aber insgesamt ist gerade so, wo sich das für mich gerade verändert hat,
0:33:12–0:33:17
ist, dass ich gemerkt habe, als man darüber spekuliert hat, oder wir zumindest,
0:33:17–0:33:21
oder ich vielleicht auch nur, habe ich immer sehr stark an die Produkte gedacht
0:33:21–0:33:22
und sehr wenig an die Prozesse.
0:33:22–0:33:28
Und die Prozesse, die sich dadurch jetzt ermöglichen, die finde ich eigentlich alle produktiv.
0:33:28–0:33:33
Die finde ich alle nicht bedrohlich. Und das ist doch ein bisschen mehr so.
0:33:34–0:33:39
Damals habe ich vielleicht sogar schon zitiert, hat ja irgendjemand gepostet, ich möchte nicht,
0:33:40–0:33:45
dass ich die Wäsche waschen muss und das Geschirr abspülen und die KI macht
0:33:45–0:33:50
für mich Gedichte und Geschichten, sondern ich möchte, dass die KI das Geschirr
0:33:50–0:33:51
abspült, weil ich möchte Gedichte schreiben.
0:33:52–0:33:58
Da ist ja was dran. Und diese Idee eben auch wieder, wer hat es gemacht? Ich habe es gemacht.
0:33:59–0:34:03
Und was will ich mit einem Gedicht, was mir komplett rauskommt?
0:34:03–0:34:04
Und was tue ich dann damit?
0:34:05–0:34:07
Und ich glaube aber, dass das.
0:34:08–0:34:13
Bei mir verändert hat zumindest zu merken dass das ist
0:34:13–0:34:17
die wege sind wo man hilfsmittel hat so
0:34:17–0:34:20
wie auch gps für straße finden
0:34:20–0:34:24
wie also dass das ist halt einfach völlig okay man kann trotzdem wandern gehen
0:34:24–0:34:29
muss nicht den kompass auspacken und die karte hinlegen und ein strich ziehen
0:34:29–0:34:34
dass man weiß wo man hin muss aber das macht das wandern jetzt nicht kaputt
0:34:34–0:34:38
ja jemand anders würde Ich würde vielleicht sagen, mit dem GPS-System,
0:34:38–0:34:40
für mich ist das kein Wandern mehr.
0:34:42–0:34:46
Und das ist jetzt anders. Da habe ich wirklich das Gefühl, dass es angekommen ist im Alltag.
0:34:49–0:34:51
Hat noch keinen Atomkrieg ausgelöst.
0:34:55–0:34:58
Darum geht es aber jetzt auch nicht. Aber im Alltag geht es mir so,
0:34:58–0:35:06
dass ich merke, dass ich nicht das Gefühl habe, ich werde abgelöst.
Florian Clauß
0:35:06–0:35:08
Ja, ja, ja.
Micz Flor
0:35:09–0:35:13
Und die Bilder zum Beispiel mit dem brennenden Stuhl, die haben mich damals
0:35:13–0:35:17
künstlich gesagt, die haben mich irgendwie total beeindruckt,
0:35:17–0:35:21
cool, krass, geschämt so ein bisschen.
0:35:21–0:35:24
Muss man das heimlich machen oder nicht und,
0:35:26–0:35:29
das ist jetzt aber auch schon wieder vorbei, gut jetzt haben wir immer wieder
0:35:29–0:35:33
mal Ärger über Bilder, die wir für die Episoden brauchen aber es ist dann doch
0:35:33–0:35:38
schöner darauf zu warten, wenn Chris von der Katze, die er da drauf gemalt hat auf die eine,
0:35:39–0:35:43
auf das Fußpedal drauf zu warten damit das dann irgendwie ein Episodenbild wird.
Florian Clauß
0:35:45–0:35:47
Das war aber nicht so schön nee.
Micz Flor
0:35:48–0:35:51
Aber für mich schon aber das ist halt irgendwie, ich weiß auch nicht,
0:35:52–0:36:03
Und ich denke halt manchmal auch, vielleicht wird sogar, gerade wenn es um Kreativarbeit geht,
0:36:04–0:36:09
wird so beim Musikmachen oder sowas, ist es vielleicht dann wieder wichtiger,
0:36:09–0:36:11
auch wirklich Musik zu machen.
0:36:11–0:36:18
Vielleicht werden sogar sowas wie DJs und Laptop-Künstler dann noch uninteressanter,
0:36:18–0:36:20
als sie für mich sowieso schon sind.
0:36:21–0:36:25
Und diese Idee, dass du halt natürlich ein Gitarrensolo auf Knopf generieren
0:36:25–0:36:28
kannst und man kann das auch in das Lied rein, das heißt aber nicht,
0:36:28–0:36:29
dass du es auch spielen kannst.
0:36:30–0:36:37
Also diese Sache, dass man dann eben doch hinten raus möchte,
0:36:37–0:36:41
sagen können möchte, ich habe es gemacht.
0:36:42–0:36:46
Ich weiß nicht, ich kann das nicht gut ausdrücken. Aber das ist wirklich dieses Performante,
0:36:46–0:36:50
dieses Körperliche, dieses Anschauen, anschauen, dies Dabeisein,
0:36:50–0:36:55
vielleicht sogar Zeugenschaft auch und das ist dann vielleicht auch wirklich
0:36:55–0:36:56
ein Journalismus-Thema,
0:36:56–0:37:02
also inwieweit diese KI dann auf einmal so eine Kette von Zeugen wichtiger macht,
0:37:03–0:37:06
weil auf einmal alles gefälscht sein kann.
0:37:10–0:37:17
Und ja, und da bin ich irgendwie gerade mit.
0:37:18–0:37:21
Es geht jetzt, also ich merke die Folge, geht jetzt irgendwie,
0:37:21–0:37:29
das hat mich irgendwie mehr ergriffen, zu merken, dass ich einfach damit gerne und gut umgehen kann.
0:37:30–0:37:34
Als mir das auf einmal klar wurde und ich dann mich erinnert habe,
0:37:34–0:37:41
wie problematisch ich das vielleicht noch vor eineinhalb Jahren, zwei Jahren sah.
0:37:42–0:37:46
Da war die Folge irgendwie ein bisschen blumiger, als sie jetzt vielleicht gerade ist.
Florian Clauß
0:37:46–0:37:50
Ja, aber ich meine, wir haben ja auch damals schon gesagt, das ist ja nicht so eine richtige Karte.
0:37:51–0:37:54
Das ist ja einfach nur so statistische Sachen, die da hin und her laufen.
Micz Flor
0:37:54–0:37:56
Ja, eben klar. So Maschinenlöhne.
Florian Clauß
0:37:56–0:38:00
Ja, es ist halt irgendwie so. Ich glaube, es wächst sich dann nochmal viel mehr
0:38:00–0:38:03
in deinem normalen Workflow zusammen.
0:38:03–0:38:09
Also spätestens wenn dann halt wirklich mal eine ordentliche serie auf dem iphone
0:38:09–0:38:13
ist die dann halt genau diese funktionalitäten mit text to speech,
0:38:13–0:38:17
speech to text dann auch mal so beherrscht dass man es halt wirklich machen
0:38:17–0:38:23
kann, dass du halt unsauber nuscheln kannst in das iphone und das wird ausgeführt.
0:38:24–0:38:29
Aber das sind auch sachen die kann man sich jetzt alles vorstellen weil das
0:38:29–0:38:32
Das, was jetzt auch solche normalen Assistenzsysteme können,
0:38:32–0:38:35
konnte man sich jetzt irgendwie vor drei Jahren auch nicht vorstellen.
0:38:36–0:38:38
Und jetzt ist es eine Normalität geworden.
0:38:38–0:38:43
Und das wird sich ziemlich schnell in die Gewohnheitspattern,
0:38:43–0:38:47
also in die eigenen Gewohnheitspattern so einweben können.
0:38:48–0:38:52
Und es wird auch viel so, wie du sagst, dann halt irgendwie so selbstverständlich,
0:38:52–0:38:56
ohne dass es dann eine Zäsur gab. ab dann, als ich das erst mal das und das
0:38:56–0:38:59
gemacht habe, dann habe ich das Licht gesehen.
0:38:59–0:39:02
So was glaube ich gar nicht, sondern es wird dann halt so, ah,
0:39:02–0:39:04
okay, das geht cool. Okay, mache ich weiter.
0:39:05–0:39:09
Ja, und das, was du aber sprichst, ist ja nochmal so diese, ich habe es gemacht,
0:39:09–0:39:11
dann geht es ja auch sehr um kreatives Schaffen.
0:39:12–0:39:16
Im künstlerischen Bereich, wo du halt auch eine gewisse Ausdrucksform von,
0:39:17–0:39:24
wie man sich dann selber dann halt auch da in dem Produkt wiederfindet, was man macht.
0:39:24–0:39:29
Ja, und das, wenn du Künstler bist und du malst halt gerne,
0:39:29–0:39:34
dann willst du ja nicht unbedingt, dass jemand anders dir die Bilder malt und
0:39:34–0:39:38
du sagst, okay, ich mache jetzt mal ein Autogramm da drauf, sondern du willst
0:39:38–0:39:43
ja dann schon allein dieses schaffen.
0:39:46–0:39:50
Ist ja auch für dich eine Art von Training. Du bist ja da auch eine KI,
0:39:50–0:39:54
die dann halt irgendwie ein Modell durchtrainiert und irgendwas dann halt hinten raus schafft.
0:39:55–0:40:01
Und vielleicht ein anderes Training. Aber ich glaube, das ist halt die Frage, wie macht man was?
0:40:02–0:40:06
Wenn du jetzt für einen Geburtstag einen Jingle produzieren willst,
0:40:06–0:40:10
dann ist es ja nicht nur unbedingt eine künstlerische Expression,
0:40:10–0:40:13
die du vorher brauchst, sondern das kannst du halt auch, glaube ich,
0:40:13–0:40:16
eher über solche Systeme machen, dann bist du ganz froh, dass du,
0:40:16–0:40:21
ganz gute Ideen von der KI bekommen hast, die du verwerten kannst.
0:40:22–0:40:27
Das ist ja nicht dein künstlerischer Ausdruck, dem du danach gehst,
0:40:27–0:40:29
sondern du willst schnell ein Ergebnis haben und du kriegst es dann.
0:40:30–0:40:36
Und wenn du jetzt wirklich so ein Herzenslied von dir umsetzt und du willst
0:40:36–0:40:41
dann halt aber auch irgendwie ausprobieren, wie das neue Effektgerät damit geht,
0:40:41–0:40:45
dass du selber gelötet hast, dann ist es nicht so, was du irgendjemand anders
0:40:45–0:40:48
überlässt, sondern das liegt dann in deinem Schaffensraum.
0:40:48–0:40:53
Das heißt, ich glaube, es ist einfach so, für was macht man was.
0:40:53–0:40:58
Und früher habe ich gemerkt, dass ich auch viele Hemmschwellen hatte.
0:40:59–0:41:02
Bevor ich dann halt irgendwie so produktiv werden konnte.
0:41:02–0:41:07
Und diese Schwellen kann man jetzt relativ einfach eben durch,
0:41:08–0:41:13
solche Systeme dann einreißen. Du kannst dann erstmal sagen,
0:41:13–0:41:14
jetzt mach doch mal irgendwas.
0:41:14–0:41:19
Du kannst irgendwas hinwerfen und du hast nicht mehr diese Schreibhemmung mit dem weißen Blatt.
0:41:20–0:41:26
Du füllst relativ schnell ein Blatt. Und das kann aber auch eine Art von Befreiung
0:41:26–0:41:31
sein, weil du halt schneller erstmal was hast und nicht in diese Stockstarre
0:41:31–0:41:33
kommst, wo du nichts kriegst.
0:41:33–0:41:36
Und das gleiche kann ich mir auch vorstellen, wenn du halt irgendwie so eine
0:41:36–0:41:42
eine musikalische Skizze brauchst oder sowas, dann kannst du halt auch mal fragen,
0:41:42–0:41:44
mach mal und dann kannst du wieder auf was aufbauen.
0:41:44–0:41:48
Ich glaube, das ist halt so, du hast mehr fertige Bausteine,
0:41:48–0:41:52
die du in deinem kreativen Schaffensprozess dann benutzen kannst.
0:41:52–0:41:59
Und das ist glaube ich das, was dich da so ein bisschen auch befreit von früheren Sachen.
Micz Flor
0:42:00–0:42:04
Ja, und ich hänge mich da nochmal rein mit diesem, wie kommt das neue in die
0:42:04–0:42:06
Welt Frage, also kreative Tätigkeit.
0:42:06–0:42:11
Und da finde ich es ja auch interessant, wenn man, das war ja auch bei dieser
0:42:11–0:42:16
Uralt-Folge, wo wir das erste Mal über KI-generierte Musik von den Beatles gesprochen
0:42:16–0:42:19
haben, diese Idee der Fehler.
0:42:19–0:42:23
Es sind immer Kompromisse, Fehler, das war jetzt das falsche Wort,
0:42:23–0:42:26
aber ich möchte einen Hall auf meinem Klang haben.
0:42:26–0:42:29
Ich habe aber jetzt hier keine Riesenkirche verfügbar, deshalb hänge ich zwei
0:42:29–0:42:30
Eisenplatten nebeneinander.
0:42:31–0:42:35
Die eine hat einen Membran, also ein Mikro nehme ich ab und das auf dem anderen
0:42:35–0:42:40
Dann wird das über einen Lautsprechermembran bewegt und dann entsteht einfach mal ein Hall.
0:42:41–0:42:46
Dieser Hall klingt nicht so wie die Sixtinische Kapelle, aber fast forward 30
0:42:46–0:42:51
Jahre später gibt es genau diesen Hall als digitalen Plug-in für deinen Laptop.
0:42:52–0:42:55
Für Musikproduktion. Und das finde ich gerade,
0:42:56–0:42:59
also wenn man da schaut, was ist da passiert, man möchte irgendwas machen,
0:43:00–0:43:03
man kriegt es nicht so gut hin, aber genau das wird dann so ein Signature-Sound
0:43:03–0:43:07
für ein bestimmtes Label oder so und wird dann heute nochmal digital nachgemessen
0:43:07–0:43:09
und dann auch digital implementiert.
0:43:09–0:43:12
Und ähnlich habe ich das Gefühl, dass die KI jetzt gerade auch,
0:43:13–0:43:17
gerade weil sie kompromisshaft ist, diese Eating-Spaghetti-Sache,
0:43:17–0:43:18
für die, die es nicht kennen.
0:43:20–0:43:24
Will Smith Eating Spaghetti war halt so was das kann die ki noch nicht da schlabbern
0:43:24–0:43:29
die spaghetti sind nach rechts und links sind irgendwie so nicht richtig auf
0:43:29–0:43:31
der gabel nicht richtig im mund das alles ein bisschen,
0:43:32–0:43:37
unheimlich was seltsam vertraute sondern aber auch komplett fremd und in diesen
0:43:37–0:43:41
momenten finde ich entsteht aber oft so eine ästhetik aus diesen fehlern wo
0:43:41–0:43:49
ich mir sicher bin dass das auch einzug erhält in andere Moving Image Sprache.
0:43:49–0:43:55
Also jetzt gerade das Fehlerhafte, dann solche Effekte sind,
0:43:55–0:43:58
die dann auch irgendwie wieder reinkommen.
0:43:58–0:44:01
Während wenn das alles gelöst ist, dann wird es vielleicht wieder langweiliger.
Florian Clauß
0:44:02–0:44:10
Ja, weiß ich nicht, weil das sind ja quasi so die Fehler, die entstehen oder
0:44:10–0:44:15
die Artefakte, die entstehen, wenn sich so ein neues Medium initiiert.
0:44:15–0:44:19
Das war ja früher, du erinnerst dich, als wir dann halt Real Audio eingesetzt haben.
Micz Flor
0:44:20–0:44:21
Als Software.
Florian Clauß
0:44:22–0:44:29
Dann war halt irgendwie so die Kompression war halt schon ziemlich krass,
0:44:29–0:44:34
ja und hatte schon so ein eigenes Klangbild, Real Audio.
0:44:34–0:44:38
Und dann war man doch ganz froh,
0:44:38–0:44:44
als halt neue Formen von Streaming-Technologien kamen und man hat dem jetzt nicht so nachgeweitet,
0:44:44–0:44:54
Es gibt immer so Schwellentechnologie oder auch eben dann halt Schwellenbilder oder sowas.
0:44:54–0:45:03
Ich meine, gut, das ist aber auch ikonisch geworden, das Einwählen von den Modems.
0:45:04–0:45:08
Das hörst du ja noch ab und zu mal irgendwo als damals.
0:45:08–0:45:14
Damals, ja, aber das ist auch so ein Schwellensound, was du hattest und was
0:45:14–0:45:19
dann halt wieder so ein Zeitphänomen war, aber dann war es halt auch weg, ja.
0:45:20–0:45:25
Also man möchte ja halt auch irgendwie diese Fehler möchte man dann halt auch
0:45:25–0:45:28
nicht oder diese Umständlichkeiten möchte man ja auch nicht behalten.
0:45:29–0:45:33
Das geht ja dann halt weg irgendwann, ja. Genauso wie Will Smith dann halt ordentlich
0:45:33–0:45:38
Spaghetti essen kann mit so einem KI-generierten Film. Das ist ja auch kein Problem jetzt.
0:45:39–0:45:45
Also das heißt, das will man nicht. Und ich glaube auch nicht,
0:45:45–0:45:49
dass es sich dann irgendwie so als Fehler hält oder irgendwo,
0:45:49–0:45:54
sondern es ist vielleicht so, ha ha, guck mal, da hat die KI noch sechs Finger gemacht.
0:45:54–0:45:58
Wie blöd. Ja, und dann war das halt so ein kurzer Schenkelklopfer.
0:45:59–0:46:03
Aber dann war es halt nur für die, die diese Phase mitgemacht haben, dann eine Information.
0:46:03–0:46:06
Und für alle späteren, die können sich das halt irgendwie gut.
0:46:07–0:46:10
Ihr hattet Telefone mit Wehrscheibe? Okay.
0:46:10–0:46:14
Und jetzt sieht man halt immer auf Facebook-Gruppen dann, meine Kinder wissen
0:46:14–0:46:17
nicht, wie rum der Telefonhörer zu halten ist.
Micz Flor
0:46:17–0:46:21
Ja, aber andererseits siehst du dann immer noch, wo war das denn, wo war ich?
0:46:21–0:46:25
Ach so, in Frankreich, wo da Telefonleitungen liegen. Da liegen so Gullisteine
0:46:25–0:46:27
auf der Straße und drunter sind Telefonleitungen.
0:46:27–0:46:30
Und da ist halt eben genau nochmal so eine Wählscheibe drauf.
Florian Clauß
0:46:30–0:46:32
Ja, es ist halt wie die Kette beim Speichern.
Micz Flor
0:46:32–0:46:33
Ja, genau.
Florian Clauß
0:46:33–0:46:36
Die kriegst du auch nicht weg. Ja, also klar, du hast dann auch so,
0:46:36–0:46:40
es ist halt wie beim Stammhirn, der, wie heißt es noch?
0:46:42–0:46:45
Hypothalamus? Und dann hast du halt irgendwie die große Rinde,
0:46:45–0:46:47
die halt ein bisschen besser auflösen kann.
0:46:47–0:46:51
Aber du kriegst das ganze Instinktive nicht weg. Das bleibt halt drin.
Micz Flor
0:46:52–0:46:55
Ja aber ich denke vielleicht ist es so
0:46:55–0:46:58
dass diese produktion also
0:46:58–0:47:01
das neue in die welt ist das eine wo
0:47:01–0:47:04
ich ein bisschen daran festhalten ich habe jetzt noch gerade
0:47:04–0:47:07
so ein ramsey dieser koch aus
0:47:07–0:47:10
uk wo sie sohn der halt immer so ein bisschen chaotisch in
0:47:10–0:47:13
seinen koch video scheinbar ist ich habe das irgendwie nicht mehr
0:47:13–0:47:16
gesehen aber das in ki konstruiert in
0:47:16–0:47:19
der küche sieht halt dann irgendwie schon relativ schnell relativ gut
0:47:19–0:47:24
aus aber dann zwischen diesen deckel öffnen und dann spagetti rein dann kommt
0:47:24–0:47:28
er kommt davon von unten wieder raus und dann sind ganz kurz zwei rams ist drin
0:47:28–0:47:34
verschwindet das hat echt so was wie so eine so eine harry potter zauber sequenz
0:47:34–0:47:38
ist eine bestimmte form bewegung und unheimliche momente wo ich schon die,
0:47:39–0:47:44
Ja, keine Ahnung, man wird da vielleicht nochmal so draufgucken und wird es
0:47:44–0:47:45
erst in der Zukunft wissen.
0:47:45–0:47:49
Ich glaube irgendwie, das ist in der Musik ja so gewesen, Gitarren sollten immer
0:47:49–0:47:53
lauter werden, deshalb gibt es Verzerrungen, weil halt Verzerrungen klangen
0:47:53–0:47:59
zwar auch cool, aber war auch einfach der Anschlag, wenn ich das alles ganz laut gemacht habe.
0:47:59–0:48:02
Und dann wurden irgendwann Verzerrer gebaut, weil man diesen Sound haben wollte.
0:48:03–0:48:05
Irgendwas wird da hängen bleiben, aber das werden wir dann später wissen.
Florian Clauß
0:48:05–0:48:08
Ja, nee, du hast aber, wenn du die Analogie übertragen willst,
0:48:08–0:48:12
hast du natürlich dann halt auch, also wenn du jetzt bei irgendwelchen Mid-Journey
0:48:12–0:48:18
oder irgendwo bei diesen ganzen Bildgenerierungsportalen hingehst,
0:48:19–0:48:22
hast du halt ewig viele verschiedene Modelle, ja.
0:48:22–0:48:27
Also du hast die Modelle, die jetzt auch so trainiert werden,
0:48:27–0:48:31
die gehen ja schon auf so ein ziemlich hochentwickeltes Modell drauf,
0:48:31–0:48:36
so Perplexity, oder nee, das ist was anderes, das ist Stable Diffusion zum Beispiel.
0:48:36–0:48:40
Beispiel, dann kannst du halt quasi so die Soras heißen die,
0:48:40–0:48:47
glaube ich, dann kannst du quasi so dein eigenes Modell prägen mit eigenen Sachen, ja.
0:48:48–0:48:52
Und so entwickelst du das dann halt weiter. Das heißt, du hast auch eine Diversität
0:48:52–0:48:53
von verschiedenen Sachen.
0:48:53–0:48:58
Die einen sind besonders gut in irgendwie keine Ahnung, Realistik,
0:48:58–0:49:04
HD oder die anderen machen halt irgendwelche Manga-Modelle oder Manga-Zeichnungen gut.
0:49:05–0:49:08
Und da Da hast du ja schon die Ausprägung in den verschiedenen Richtungen.
0:49:08–0:49:11
Das ist ja so ein bisschen wie mit dem Sound dann halt auch.
Micz Flor
0:49:11–0:49:14
Ja, aber dann kommt ja nicht das Neue in die Welt auf einer formalen Ebene,
0:49:14–0:49:20
sondern eben nur auf Inhalte. So neue Manga-Geschichten, die alle 1A aussehen wie Manga.
Florian Clauß
0:49:20–0:49:24
Keine Ahnung, wie die unterschiedlichen Gitarrenmodelle.
0:49:24–0:49:27
Und dann kannst du halt auch selber deine Modelle trainieren.
0:49:27–0:49:32
Auf dieser Ebene kannst du auch schon wieder, hab ich gemacht, machen.
0:49:32–0:49:35
Und denken, dass du deine eigenen Modelle dann trainierst.
Micz Flor
0:49:36–0:49:41
Das andere finde ich noch interessant, was du gesagt hast, eben mit dem selber
0:49:41–0:49:45
machen, habe ich gemacht, dieser Jingle, den man zum Geburtstag macht,
0:49:45–0:49:48
der ist natürlich dann auch in gewisser Weise ein bisschen wertlos.
0:49:48–0:49:52
Also wenn man früher eine Fotokollage gemacht hätte, dann ist das auch toller
0:49:52–0:49:55
und aufwendiger und vielleicht auch mehr geschätzt, dass wenn man es dann irgendwie in Photoshop...
Florian Clauß
0:49:55–0:50:00
Nee, würde ich nicht so sehen. Das ist doch genau so eine Kollage oder irgendwie
0:50:00–0:50:01
ein Gedicht, was man dann schreibt.
0:50:02–0:50:04
Findest du das denn wertloser?
Micz Flor
0:50:04–0:50:09
Ja, ich hatte auf einmal so dieses Gefühl im Kopf, dass man vielleicht in allem,
0:50:09–0:50:14
das wäre vielleicht so eine positive Vision in Anführungszeichen,
0:50:15–0:50:22
dass durch diese Assistenz gepaart mit dem Wunsch, wer hat es gemacht, ich habe es gemacht,
0:50:23–0:50:28
insgesamt vielleicht Dinge wieder prozesshafter werden und weniger produktmäßig.
0:50:28–0:50:32
Also es ist dann quasi nicht das Lied, sondern...
0:50:37–0:50:41
Nur dann wertvoll, wenn es wirklich auch einen Entstehungsprozess hat,
0:50:41–0:50:42
in dem man das Gefühl hat, man steht,
0:50:43–0:50:48
mit sich selbst in Kontakt oder mit anderen in Kontakt und nicht einfach ein
0:50:48–0:50:55
Prompt machen Make me a game of Space Invaders und dann ist das Spiel da, sondern diese.
0:50:57–0:51:00
Das Dialogische, egal ob es eine Maschine ist oder ein Proberaum mit anderen,
0:51:00–0:51:04
eine Band oder sogar ein Dreieck mit Maschine und anderen.
0:51:05–0:51:08
Es darf entstehen, aber es muss prozess haben damit
0:51:08–0:51:11
man sich auch daran gewöhnen kann und das
0:51:11–0:51:16
ist vielleicht sogar dann auch die frage wenn wir
0:51:16–0:51:26
wenn wir in diese library von boches reinschauen wo alle sachen ja schon drin
0:51:26–0:51:31
sind da ist ja wahrscheinlich sogar viel mehr drin dass das was die ki so hinkriegt
0:51:31–0:51:33
weil sicherlich auch irgendwelche Sachen drin sind,
0:51:33–0:51:37
sagen wir mal es seien Noten, die gemacht werden, von irgendeiner Musik,
0:51:37–0:51:44
die jetzt noch gar nicht irgendwie gemocht werden würde und erst noch ein bisschen braucht.
0:51:44–0:51:50
Also diese Idee von einer schrittweisen Anpassung von sowas wie eben dem kulturellen
0:51:50–0:51:53
Hintergrund, auf dem ja auch die Memes entstehen und so,
0:51:53–0:51:58
dass das einfach auch benötigt wird und man nicht einfach sagen kann,
0:51:58–0:52:03
okay, wir öffnen jetzt die Library of Babel von Borges und dann ist die Zukunft
0:52:03–0:52:06
ein für alle Mal komplett schon da.
0:52:06–0:52:10
Und genauso kann die KI auch irgendwie natürlich nur nach hinten arbeiten.
0:52:10–0:52:18
Wenn sie nach vorne arbeitet, ist sie darauf angewiesen, dass es Teil von einer
0:52:18–0:52:22
Welle ist und nicht einfach ein Punkt ganz weit draußen.
0:52:23–0:52:25
Es muss eingebettet sein, es muss eingebunden sein.
0:52:26–0:52:34
Also irgendwie ist meine Hoffnung, dass es was Prozesshaftes ist, wenn man, sagen wir.
0:52:40–0:52:41
Er hat auf uns gewartet.
0:52:47–0:52:51
Machen wir jetzt einfach hier Schluss. Also ich äußere nochmal meinen Wunsch.
0:52:53–0:53:00
Als Assistenz funktioniert es jetzt schon sehr gut. Macht Spaß.
0:53:01–0:53:07
Macht wirklich einfach auch eine gute Zusammenarbeit.
0:53:08–0:53:15
Und vor dem Hintergrund, dass so etwas wie Kultur, solange es von Menschen getragen
0:53:15–0:53:17
wird, dann doch auch prozesshaft bleibt,
0:53:18–0:53:25
braucht es Zeit für Innovationen, um auch anzukommen, um sich irgendwie ausbreiten zu können,
0:53:25–0:53:34
überhaupt die Zeit, damit Memes entstehen dürfen und memes auch dann in gewisser
0:53:34–0:53:41
Weise ja dann der Bakterienspiegel oder das Biom der Kultur sind.
0:53:43–0:53:50
Und so gesehen ist dann natürlich von der letzten Episode ist der Ted Chiang
0:53:50–0:53:56
Artikel nicht so, also ist witzig, aber ist nicht so erwartbar.
0:53:57–0:54:02
Es sei denn, es geht einzig und allein um, keine Ahnung, Materialforschung oder sowas.
0:54:03–0:54:11
Das wäre dann wieder so ein Ufo-Thema. Also die KI macht dann das Material für
0:54:11–0:54:14
uns, was sonst vom Himmel fällt, so Terminator-Metal.
0:54:18–0:54:22
Aber das wäre jetzt so für mich das Fazit aus dieser Diskussion und das ist
0:54:22–0:54:28
jetzt wirklich vielleicht am ehesten auch an den Wandergesprächen, wenn wir die so haben.
0:54:29–0:54:32
Also was ich jetzt gerade mitnehme, ist dann wirklich so dieses Prozesshafte,
0:54:32–0:54:37
was sowohl auf einer individuellen Ich-hab-es-gemacht-Ebene als auch auf einer
0:54:37–0:54:42
kulturellen ach das hört sich ja gut an oder dieser Text liest es gut oder nicht.
0:54:42–0:54:46
Manchmal ist es auch da einfach, die Dinge nicht einfach in die Welt geschüttet
0:54:46–0:54:52
werden können, sondern dass sie auch eingebettet sein müssen in Entwicklung.
Florian Clauß
0:54:54–0:55:01
Ich finde, verstehe ich. Es geht wieder so um diesen Schaffensprozess,
0:55:01–0:55:02
der irgendwie spürbar sein muss.
0:55:03–0:55:07
Beim Schütten muss ich Blasen bekommen, sonst ist das Loch nicht echt.
0:55:08–0:55:13
Also bis ich mir dann wirklich den Bagger leisten kann, muss ich da schon mal
0:55:13–0:55:15
ein gewisses Level erwirtschaften.
0:55:15–0:55:21
Aber ich denke, genau diese Prozesse spiegeln sich dann in anderen Ebenen ab,
0:55:21–0:55:24
dass du das anders transferierst.
0:55:25–0:55:29
Und dann wird auch wieder, das geht nicht weg, es werden nur Schritte schneller.
0:55:29–0:55:31
Das meine ich, es verlagert sich dann.
Micz Flor
0:55:31–0:55:32
Ja, auf jeden Fall.
Florian Clauß
0:55:32–0:55:38
Und das kommt Es kommt halt auf irgendwie selbstverständlicher und einfacher,
0:55:39–0:55:44
als man irgendwie denkt und das wird dann einfach da sein.
0:55:46–0:55:50
Das ist so meine Einschätzung. Aber ich glaube, als Zwischenstand ist es ziemlich
0:55:50–0:55:52
ernüchternd, dass wir da jetzt auch,
0:55:56–0:56:03
Aber gleichzeitig auch beruhigend, dass es eben nicht in irgendein Level fällt,
0:56:03–0:56:07
wo alle dann irgendwie am nächsten Morgen...
Micz Flor
0:56:07–0:56:11
Es sind noch nicht alle arbeitslos, die nicht mehr mit Materie zu tun haben.
0:56:12–0:56:16
Becker und sowas muss ja auch noch... Gut, wir machen hier Schluss.
Florian Clauß
0:56:16–0:56:19
Wir haben auch ein bisschen geschummelt auf den letzten Kilometern.
0:56:20–0:56:25
Wir sind in die U-Bahn eingestiegen und waren im tiefsten Grunewald.
0:56:26–0:56:33
Und sind dann Oskar und Helene heim oder wie heißt das?
Micz Flor
0:56:34–0:56:36
Ähm, weiß ich gar nicht.
Florian Clauß
0:56:36–0:56:38
Oskar und Helene.
Micz Flor
0:56:38–0:56:39
Ne, ich glaub Oskar-Helene.
Florian Clauß
0:56:39–0:56:44
Oskar und Helene. Auf jeden Fall. Sind wir da eingestiegen und sind jetzt in der U3.
0:56:44–0:56:48
Und ich hab auch meinen Track aber dann schon ausgemacht.
0:56:49–0:56:54
Das ganze, genau, ihr könnt gucken und ihr könnt sehen, wo wir langgelaufen
0:56:54–0:56:59
sind auf eigentlich-podcast.de Da bekommt ihr auch mehr Informationen.
0:56:59–0:57:04
Vielleicht hat Mitch die ein oder andere Shownote zusammengetragen und gefunden.
Micz Flor
0:57:05–0:57:09
Gefunden. In der Babel. Library of Babel.
Florian Clauß
0:57:11–0:57:17
Na gut. Das war jetzt eigentlich Podcast Episode 61.
0:57:18–0:57:20
Episode 61, oder?
Micz Flor
0:57:20–0:57:21
Okay, 61.
Florian Clauß
0:57:22–0:57:24
Und dann Tschüss.
Micz Flor
0:57:26–0:57:26
Tschüss.
Florian Clauß
0:57:31–0:57:34
Also, bis dann.

Mehr