BGT150 - Künstliche Intelligenz

Eine kurze Einführung in Künstliche Intelligenz

Artist: BGT Brettspiel-Podcast
Album: BGT Brettspiel-Podcast
Year: 2024
URL: https://theboardgametheory.de/

Chapters

0:00 Begrüßung
5:18 Eine kurze Geschichte der KI
55:33 KI ist Science Fiction und Marketing, keine Kategorie
1:01:50 Die Zukunft? AGI: Artificial General Intelligence
1:23:06 Die Gegenwart: Use Cases
1:43:23 Der Eliza Effekt
2:03:20 Bullshit als Kern-Konzept
2:06:15 Reasoning
2:11:03 Produktiver durch KI
2:20:12 Bias
2:24:17 (Energie)Kosten von KI
2:31:59 There is no AI, only other people's content
2:41:26 Das Junior Problem
2:49:53 Die versteckten Kosten von KI
2:52:56 Sicherheit wird nicht ernst genommen
2:56:51 Fazit und Verabschiedung

Transcript

Begrüßung

Soundboard:
[0:02] Du suchst fundiertes Wissen und sachliche Diskussionen? Dann ist BGT das Falsche für dich. Viel Spaß mit der Board Game Theory.

Dirk:
[0:17] Ja, hallo liebe Hörerinnen und Hörer da draußen an den Endgeräten. Schön, dass ihr wieder eingeschaltet habt zur Board Game Theory. Die BGT ist wieder zurück. Ja, und ihr merkt schon, meine Stimme ist ein bisschen angeschlagen. Deswegen mache ich das nicht alleine, sondern habe mir jemanden dazugeholt, der heute ganz viel reden wird. Und den habt ihr auch schon kennengelernt. Und den haben wir ganz heimlich, habe ich den eingeführt bei dem Schwarze Auge. Der Lukas ist wieder da. Hallo Lukas.

Lucas:
[0:43] Hallo Dirk. Schön, da zu sein.

Dirk:
[0:45] Ja, schön, dass du dir die Zeit genommen hast. Ja, die Schwarze Auge-Folge ist ja ganz gut angekommen. Die hat sehr, sehr viel Spaß gemacht. Hast ja auch ganz gutes Feedback bekommen, sobald ich das gelesen habe aus dem Discord.

Lucas:
[0:56] Auf jeden Fall.

Dirk:
[0:57] So, und da hatte ich ja schon erwähnt, dass der Lukas und der Dirk, die kennen sich schon länger. Und die haben eigentlich gar nicht, also wir sind eigentlich gar keine Brettspieler, hauptberuflich und auch der Lukas ist kein Rollenspieler hauptberuflich, sondern wir machen was ganz anderes, sondern so kommen aus dem IT-Umfeld im größeren Sinne. Genau, und da haben wir uns überlegt, weil, Ich habe lange schon das Bedürfnis, in diesem Podcast über das Thema künstliche Intelligenz zu sprechen. Das wird euch ja aufgefallen sein, weil ihr hört ja immer bis am Ende jeder Folge das, was danach noch kommt. Da hatte ich einen kleinen Teaser versteckt. Ich wollte gerne über das Thema künstliche Intelligenz reden und habe lange überlegt, auch mit den anderen von uns, wie können wir das am besten machen, laden wir uns Leute aus der Szene ein.

Dirk:
[1:52] Illustratoren, letztes Mal als wir mit Felix Mertig von King Raccoon gesprochen haben, hatten wir im Vorgespräch überlegt, ob wir das ansprechen, haben das aber doch nicht gemacht, weil es zu umfangreich gewesen wäre. In anderen Podcasts ist das auch schon thematisiert worden, die hatten Gäste da, dann habe ich gesagt, okay, ich will nicht das Gleiche nochmal machen, irgendwie mit anderen Gästen über das Gleiche so aus Sicht, Nicht, okay, wie betrifft uns das? Wir erleben immer mehr, dass auf Kickstarter gibt es jetzt eine Policy, du musst angeben, wenn du AI verwendest oder generative AI für was auch immer in deinem Spiel oder in deinen Produkten. Genau, es gibt Spiele, die benutzen das sehr exzessiv, die sagen, das ist cool, das wollen wir machen. Es gibt Leute, die sagen, wir haben da keinen Bock drauf. So, und dann habe ich mich gefragt, wie könnten wir das irgendwie cool machen, dass wir was anderes erzählen zu AI und nicht einfach nur wieder so, was man woanders auch schon mehr oder weniger gehört hat. Da habe ich den Lukas gefragt, ob der Lukas nicht auch Lust darauf hätte, immer über AI zu reden, weil ich zufälligerweise weiß, dass der Lukas sich sehr viel mit dem Thema AI in letzter Zeit beschäftigt hat. Und zwar, ja, vielleicht kannst du das selber gleich nochmal sagen, aber auf jeden Fall nicht, ich benutze jetzt AI und bin so ein Hipster, sondern du hast dich da schon sehr intensiv auch so grundlegend mit beschäftigt.

Dirk:
[3:09] Intellektuell interessiert, könnte man vielleicht sagen. Und dann haben wir den Plan gefasst, okay, lass doch einfach so eine Grundlagenfolge machen und wir wollen jetzt gar nicht über Brettspiele reden, vielleicht hier und da wird mal irgendwas aus der Bubble Brettspiele oder Spiele fallen, aber das wird eine Folge sein, die ja sehr ungewöhnlich ist auf diesem Kanal, würde ich sagen. Aber ich glaube trotzdem, dass sie einen Mehrwert hat und für viele sehr interessant sein wird. Es wird hier keine technische Vorlesung oder sowas werden, sondern wir werden versuchen, oder Lukas wird versuchen, das zum Grundlegenden einzuordnen. AI heute, wo kommt das her? Was sind die Unterschiede? Genau, das so ein bisschen vorweg, damit ihr eine Vorstellung davon habt, was auf euch zukommt und nicht direkt wieder abschaltet. Ja, genau.

Lucas:
[3:59] Und ihr müsst euch, glaube ich, auch wenig Sorgen machen, dass das jetzt eine Folge wird, die euch erzählt, dass das die Revolution ist und dass ihr alle, aufspringen müsst. Das vielleicht auch schon mal vorab.

Dirk:
[4:09] Möglicherweise sind Lukas und ich beide sehr skeptisch dem Thema eingestehen.

Lucas:
[4:12] Genau.

Dirk:
[4:14] Das heißt, gleichzeitig auch, das wird keine Folge sein, die das ganze Thema vollumfänglich umfasst. Das müsste dann ein eigener Podcast-Feed werden, schätze ich mal, der auch kein Ende hat in absehbarer Zeit. Ja, wir wollen so einen Überblick geben. Eben, der Lukas hat eine ganze Reihe von Shownotes vorbereitet, so eine Art Skript vorbereitet mit ganz viel Quellen drin. Die findet ihr im Anhang und auf der Webseite auch, wo ihr euch dann nochmal vertiefen könnt und nochmal was nachlesen könnt, Links zu Videos, Interviews, anderen Artikeln findet. Und wenn es irgendwelche Fragen gibt, Lukas ist auch auf dem Discord unter Moonglum zu finden, ja, pingt ihn da an und du wirst dann zeitnah versuchen zu antworten.

Lucas:
[5:00] So ist es, absolut.

Dirk:
[5:01] Ja, und ansonsten bin ich gespannt, was das für Diskussionen auf dem Discord und an anderer Stelle hervorrufen wird. Ja, und dann Dann würde ich sagen, Lukas, ohne weitere Vorrede, starten wir doch mit einer Einführung, wo AI überhaupt herkommt.

Eine kurze Geschichte der KI

Lucas:
[5:18] Ja, würde ich sagen, das ist immer eigentlich erstmal ein guter Start, weil Künstliche Intelligenz oder Artificial Intelligence ist halt irgendwie ein Begriff, der ist nicht neu, aber über die Zeit gibt es immer wieder in Wellen Zeitpunkte, wo es auf einmal das super heiße Thema ist. Das ist so die Konstante in diesem Thema. Es kommt immer wieder eine Welle hoch und dann heißt es, oh, das ist die große Revolution und jetzt wird sich alles ändern. Und dann passiert irgendwas wie zum Beispiel der AI-Winter oder der zweite AI-Winter oder was auch immer. Und dann ist es erst mal wieder vorbei für eine Zeit und keiner redet mehr drüber und dann kommt es wieder. Und ich glaube, das lässt sich auch ein bisschen aus der Historie herleiten, weil das eigentlich eher ein Begriff aus der Science-Fiction ist. Und ich glaube, das müssen wir uns auch immer klar machen, dass wenn wir über AI reden, dann reden wir eigentlich nicht über eine Technologie, sondern über eine Wunschvorstellung, über etwas, was wir tun. Wie man das halt auch so Science-Fiction-Romanen kennt. So eine, irgendwas Revolutionäres. Entweder es wird uns alle vernichten oder es wird die Welt retten oder was weiß ich. So was passiert da eigentlich auch immer in diesen Büchern.

Dirk:
[6:40] Und es ist ja auch nie so richtig klar. Also es ist ja von Buch zu Buch und von Science-Fiction-Universum zu Science-Fiction-Universum sehr unterschiedlich, was darunter genau verstanden wird. Genau, genau.

Lucas:
[6:51] Genau, ja. Und ich glaube, nach der Einführung sollte dann relativ klar sein, dass auch wenn wir jetzt gerade irgendwie von diesem AI-Hype reden, dass das eigentlich kein neuer Hype ist und das ist eigentlich die Wunschvorstellung, die sich damit verbinden. Zumindest fraglich ist, ob die verbunden sind mit der Technologie, über die wir gerade reden. Aber dazu kommen wir dann gleich nochmal zurück. Ich würde jetzt erstmal so als Beispiel, also es ist ein bisschen schwierig immer so den Start von irgendwas zu finden, aber also eine der ersten Sachen, die bis heute irgendwie nachklingen, ist sowas wie Asimov. Also ich glaube, viele der Zuhörenden haben von Asimov schon mal gehört, haben vielleicht ein Buch gelesen oder einen Film geguckt, das auf seinen Büchern basiert. Es ist, glaube ich, eine der bekanntesten Science-Fiction-Autoren.

Lucas:
[7:44] Und Asimov hatte 1940, das muss man sich auch mal klar machen, wie lange das eigentlich schon her ist, diese Bücher, kam in einer, der ersten Geschichten halt diese Idee von diesen Three Laws of Robotics vor. Also da in einem Buch, das hieß Runaround oder einer Geschichte, die hieß Runaround, da hat er halt diese drei Gesetze der Robotik formuliert und ich finde es deswegen interessant, weil, die schon damals diese Angst vor dem, was künstliche Intelligenz sein könnte, ausdrücken. Weil das erste Law der Robotics sagt halt, ein Roboter darf keinen Menschen verletzen oder durch Nichtstun dafür sorgen, dass ein Mensch verletzt wird. Und ich finde das deswegen interessant, weil das, was als erstes irgendwie passiert ist, okay, das ist ein fremdartiges Ding und das ist erstmal gefährlich für uns und das wird uns irgendwie wehtun. Und ich finde auch in den Geschichten von Asimov, also da würde ich jetzt vor allem iRobot vielleicht vorher.

Lucas:
[8:57] Hervorheben, die Geschichten, die in dieser Geschichtensammlung drinstehen, das ist immer so, es klingt erstmal alles super und es ist ja auch alles sicher, weil es gibt jetzt diese Robot-Laws und später stellt sich raus, oh, doch nicht. Alles doof gelaufen. Und diese Angst, mit der spielen die Leute, die uns heute halt solche Technologien verkaufen wollen, spielen die bis heute mit. Diese Angst davor, hey, wenn ihr nicht aufpasst, dann wird euch das irgendwie... Ermorden oder, weiß ich nicht, die Welt vernichten oder was auch immer. Und diese Geschichte, die kommt immer mit in diesem ganzen Ablauf, kommt es immer wieder vor, dass es eigentlich super gefährlich ist und ihr müsst aufpassen. Aber es klingt auch super cool. Und es wechselt immer so zwischen Utopie und Dystopie in vielen dieser Romane oder Filme. Und das prägt unser Bild davon, was AI ist. Also viele denken an sowas wie Terminator oder, weiß ich nicht, Her, dieser Film mit diesem Knopf im Ohr, sag ich mal. Das klingt da alles irgendwie mit und das hat schon sehr früh mit Asimov begonnen. Wahrscheinlich gibt es auch noch Sachen davor, möchte ich überhaupt nicht ausschließen.

Dirk:
[10:14] Ja, aber es gibt immer so einen Moment, wo man sagt, okay, das ist das erste Mal, wo sich mehrere Leute daran erinnern und das öfter genannt wird.

Lucas:
[10:22] Genau. Und vor allem muss man halt hervorheben, zu dem Zeitpunkt, wo Asimov darüber geschrieben hat, da gab es halt überhaupt nichts in dieser Richtung. Also das war viel zu früh.

Dirk:
[10:31] Und überhaupt nichts bedeutet, es gab noch nicht mal richtige Computer in dem Sinne.

Lucas:
[10:36] Ja, also nicht so, wie wir die uns heute vorstellen zumindest, genau, ja. Und das ist halt zumindest mal interessant, das als Perspektive auch zu sehen, weil man merkt, also wir kommen da später auch nochmal drauf zurück, auch die Leute, die heute sehr stark diesen Trend pushen, sind zumindest inspiriert von Science-Fiction-Geschichten. Ich formuliere das mal vorsichtig. Und das trägt, glaube ich, zum Verständnis bei, warum das so verbunden ist. Man sieht irgendwie ein Ding, was einem antwortet als Text und man denkt an die Vernichtung der Menschheit. Das ist jetzt erstmal auf den ersten Blick nicht klar, wie das zusammenhängen soll. Ja. Das ist ja auch so aus der Zeit Anfang der 40er, das letzte Jahr. Rechenbarkeit erklärt, aber wenn ihr dazu mehr hören wollt, dann mache ich irgendwann mal eine Vorlesung dazu, aber nicht in diesem Podcast.

Dirk:
[12:00] Es geht zu weit.

Lucas:
[12:01] Genau. Und allgemein eine sehr faszinierende Figur, der Alan Turing. Hat auch viel geleistet. Wirklich abgefahren. Und er hat 1950 so ein Gedankenexperiment gehabt. Und das hat er erst The Imitation Game genannt. und das wurde dann später umgetauft in Turing-Test. Also eigentlich hat er das Imitation Game genannt. Und das Lustige an dieser Geschichte ist, dass viele Leute gar nicht wissen, dass die eigentlich quasi ein bisschen länger ist als das, was man vielleicht schon mal gehört hat. Das Imitation Game ist ein Spiel der Täuschung. Also wir haben in der ersten Version gar nichts mit Computern zu tun. Wir haben eine Person A und wir haben eine Person B und wir haben einen Beobachter C. Und der Beobachter C oder der Interpreter C, der kann mit A und mit B sprechen über Text. Also der schiebt quasi so ein Blatt Papier durch und kriegt ein Blatt Papier zurück und dann weiß er halt, was diese Person antwortet. Und in der ersten Formulierung ist eine von beiden eine Frau und der andere ein Mann. Und der Beobachter C muss herausfinden, wer ist der Mann, wer ist die Frau? Das ist quasi die erste Formulierung.

Lucas:
[13:24] Was zumindest erstmal die Frage aufwirft, wie kann man an der Art, wie jemand spricht, erkennen, ob es eine Frau oder ein Mann ist? Aber okay, das war irgendwie sein Ding. Das wollte er halt da irgendwie ausdrücken. Und dann hat er gesagt, ja, jetzt könnte man das weiterdenken. Jetzt gibt es ja Touring-Maschinen und die werden ganz tolle Sachen machen können und irgendwann werden die bestimmt auch Text machen können und dann kann man mit denen sprechen. Also wir tauschen jetzt einfach einen von den beiden mit einer Maschine aus. Und jetzt spielen wir dasselbe Spiel, aber jetzt müssen wir nicht rausfinden, ist es Frau oder Mann, sondern ist es Mensch oder ist es Maschine? Das ist quasi die Aufgabe. Und er stellt jetzt die These auf, dass wenn diese nicht mehr unterscheidbar sind, also wenn du nicht mehr weißt, wer ist der Mensch und wer ist die Maschine, dann ist quasi menschliche Intelligenz erreicht.

Dirk:
[14:17] Okay. Das ist schon mal krass, dass das das einzige Kriterium für Menschenintelligenz zu sein scheint.

Lucas:
[14:28] Genau. Es ist deswegen interessant auch, weil, da kommen wir auf jeden Fall auch nochmal im Laufe des Podcasts drauf zurück, es gibt eine faszinierende Verbindung dazwischen Intelligenz und Sprache.

Lucas:
[14:42] Wir gehen davon, also das ist auch wieder was, was finde ich in Science-Fiction-Geschichten ganz oft vorkommt Irgendwie kommt eine fremde.

Lucas:
[14:50] Alien-Invasion oder ein Botschafter von einem anderen Planeten und so die erste Aufgabe ist ja Kontakt mit diesem Wesen aufzunehmen, zu kommunizieren Und wenn man das kann, dann ist es intelligent irgendwie, weil, nur intelligente Wesen können kommunizieren. Genauso haben wir das in Märchen Dass, wenn wir ausdrücken wollen, dass ein Wesen klug ist, dann kann es antworten. Dann haben wir den Fuchs, der sprechen kann oder sowas. Und für uns ist die Idee von Intelligenz und von Sprache sehr stark miteinander verbunden. Und das ist bei Turing auch ganz stark der Fall. Er geht einfach davon aus, ja, nur jemand, der intelligent ist, kann auch sprechen.

Lucas:
[15:31] Und das ist meiner Meinung nach auch der vollständige Unsinn an dem Turing-Test. Weil warum sollte Sprache der ausschlaggebende Faktor für Intelligenz sein? Ich glaube, dass das eine Fall ist, in die wir alle immer wieder reinlaufen. Können wir auch gerne nochmal darauf zurückkommen. Aber es gibt auf jeden Fall diese Beobachtung, dass wenn du jemanden hörst und der kann sich sehr gut ausdrücken, dann denkst du, diese Person ist intelligent. Intelligent. Obwohl wir alle wissen, dass das eigentlich nicht stimmt. Weil wir kennen Leute, die sind nicht besonders wortgewandt, aber es sind die größten Brains der Welt. Und wir kennen Leute, die können reden wie so ein Aal, aber eigentlich erzählen die nur Scheiß. Das wissen wir eigentlich. Aber trotzdem, im ersten Moment macht es erst mal so, oh, diese Person, die redet so ein bisschen gebrochen, sie weiß nicht, wovon sie spricht.

Dirk:
[16:25] Wahrscheinlich nicht so. Ja. Wird das Konzept Sprache und überhaupt die Fähigkeit zu kommunizieren miteinander vermischt dann an der Stelle? Das ist nicht das Gleiche. Kommunikation und Sprache ist nicht zwingend ein und dasselbe.

Lucas:
[16:43] Also er schließt daraus, also wenn es so kommunizieren kann, dass man es nicht mehr verwechseln kann, dann schließt er daraus, dass es menschliche Intelligenz besitzt. Das ist quasi der Schluss daraus. Und dass es auch eine Art Bewusstsein hat. Und das ist auch wieder interessant, weil wir Dingen, die sprechen, auch grundsätzlich eher ein Bewusstsein zuordnen als Dinge, die nicht sprechen. Also, ob zum Beispiel Tiere ein Bewusstsein haben, sind die Geister darüber geschieden, sage ich jetzt einfach mal. Manche Leute sagen so, nee, haben sie nicht. Können ja nichts sagen.

Dirk:
[17:21] Genau.

Lucas:
[17:23] So sagen sie es vielleicht nicht, aber das ist auf jeden Fall so eine Verbindung, die man im Kopf hat. Die können halt nicht richtig kommunizieren und deswegen können sie ja nicht so intelligent sein. Und da würde ich zumindest mal großen Zweifel dran ziehen, weil Intelligenz einfach ganz viele verschiedene Aspekte hat. Und einige davon würde ich vielen Hunden oder Kakerlaken oder so auch zuordnen. Aber irgendwie haben wir das miteinander verbunden und das merken wir auch in der gesamten Historie der künstlichen Intelligenz, dass das miteinander verwoben ist, das sprechen können.

Dirk:
[18:05] Ja, und in der Science Fiction kommt das ja immer wieder hervor. Sobald es dann sprechen kann und dann sogar noch menschlich aussieht, ist ganz schnell okay, ist das Leben, ist das nicht Leben. Also gerade dann war das eben Asimov genannt mit den Androiden und Robotern. Dann sehen die, gerade Androiden, sehen dann menschlich aus und dann in jeder, ja, in fast jedem Science-Fiction geht es irgendwie darum, ist es denn, hat es ein Bewusstsein, gibt es Leben? Ich erinnere mich an diverse Star-Trek-Folgen, wo diskutiert wird, ist Data ein Lebewesen oder eben nicht? Und all diese Sachen sind da ganz eng miteinander verbunden, sobald es dann sich eben so ausdrücken kann. Und Hör in dem Film ist es ja genauso, da gibt es ja nicht mal einen Körper zu, sondern nur eine Stimme, die ganze Zeit zu hören ist. Und da werden ganz absurde Bindungen aufgebaut und dargestellt.

Lucas:
[18:59] Ja, absolut. Und ich glaube, das ist halt auch was, dass wir mal zwischendurch nachdenken sollten. Also was verstehen wir eigentlich unter Intelligenz? Was verstehen wir unter Bewusstsein? Und was ordnen wir dazu einem Ding, was mit uns schreiben kann zu? Oder einem Ding, was eben überhaupt gar nicht sprechen kann? Und ich finde, also darauf gibt es keine klare Antwort. Also das möchte ich auch gar nicht behaupten. Es gibt keine richtige Antwort darauf, was Intelligenz ist, meiner Meinung nach. Aber... Trotzdem wird es sehr oft mit Sprache verbunden und Intelligenz wird mit Bewusstsein wieder verbunden. Also etwas, was intelligent ist, hat irgendeine Art von Bewusstsein, was ja auch zum Beispiel umstritten, also manche Leute sagen, Tiere haben kein Bewusstsein. Würde ich auch persönlich jetzt widersprechen, aber ich kann es halt auch keine Beweise dafür anführen. Aber es kommt mir komisch vor, warum das so sein sollte. Aber viele Leute interpretieren es halt wieder so. Aber genau, das erstmal so als diese theoretischen oder diese, ja, bevor es überhaupt irgendjemand was programmiert hat oder sonst irgendwas, gab es halt schon diese Überlegungen überhaupt, was ist das? Und ja, wahrscheinlich könnte man auch noch weiter zurückgehen zu sprechenden Bäumen und was weiß ich davor, aber ja, das führt jetzt so weit.

Dirk:
[20:29] Ja und das klingt jetzt so, als ob das mit diesem Sprach jetzt so ein, wir erinnern uns, so aktuelles als Chat-GPT, ja total in aller Munde und dieses sprachgesteuerte Interface, aber auch das ist ja jetzt nichts komplett Neues, weil es schon Ende der 60er gab es das erste textbasierte Interface, was vorgegaukelt hat, es ist ein Psychologe. Genau.

Lucas:
[20:51] Und das ist auch interessant, weil das irgendwie, ja, unter Programmierer, Programmiererinnen, da erinnern sich viele an diese Geschichte, aber so in der Bewusstsein der Öffentlichkeit ist das, glaube ich, gar nicht so bekannt. Es gab halt den Programmierer, der hieß Weizenbaum oder müsste man wahrscheinlich auf Englisch aussprechen. Und der hat ein Programm entwickelt 1967, das hieß Eliza. Und das war wirklich super einfach. Also das kann quasi jeder heute ohne Probleme programmieren. Damals war es noch ein bisschen schwieriger, Programmiersprachen waren noch ein bisschen was anderes und so. Aber heute könnte das jeder programmieren, der etwas mehr Programmiererfahrung hat. Und das sollte so einen Psychologen imitieren. Hat also im Prinzip immer, wenn du was gesagt hast, hat es dann sowas geantwortet und wie fühlst du dich dabei und solche Sachen, so kann man sich das so ein bisschen vorstellen und, er hat das eigentlich, also er hat das ja auch nicht irgendwie gemacht, um ein Bewusstsein zu erschaffen, sondern er wusste ja, dass es einfach ein ganz einfaches Programm ist, aber hat das dann Leute ausprobieren lassen und, hat dann festgestellt, dass die Leute tatsächlich verwirrt waren und dachten, da spricht eine Person mit mir.

Dirk:
[22:08] Ja, und das mit so ganz einfachen Tricks. Die Leute sind halt darauf eingestiegen. Das kann man sich echt schlecht vorstellen. Du hattest auch einen Artikel jetzt verlinkt, aber wir packen auch noch, es gibt diverse webbasierte Emulatoren davon ja heutzutage. Da könnt ihr da mal draufklicken. Und es ist wirklich erschreckend. Und nochmal, es ist aus Ende der 60er. Es ist nicht Chat-GPT oder sowas. Es ist ganz einfach gehalten.

Lucas:
[22:32] Ja, und die Erfahrung damit, wie das funktioniert hat, hat ihn halt dazu gebracht, diesen Elisa-Effekt zu beschreiben und auch zu einem der Leute zu werden, die vor irgendwie solchen, in Anführungsstrichen künstliche Intelligenzen gewarnt haben, weil er gesagt hat, guck mal, was mit diesen einfachen Mitteln, was da schon passiert, wir müssen aufpassen, dass die Leute fangen an, sich mit diesem System anzufreunden quasi. Und interessant dabei ist, um jetzt wieder auf den Turing-Test zurückzukommen, dass Elisa im Prinzip den Turing-Test schon bestanden hat. Also nicht mal 20 Jahre nachdem dieser Test formuliert wurde, war er schon bestanden von einem sehr einfachen Programm.

Lucas:
[23:24] Und viele Leute haben tatsächlich diesem Ding auch ein Bewusstsein zugeschrieben. Und selbst Leute, die nachher gehört haben, dass es eigentlich ein Programm ist, haben das nicht geglaubt. und haben gesagt, nein, da ist ein Bewusstsein. Das ist was Intelligentes. Das kann kein Programm sein. Das ist gar nicht möglich. Und diesen Elisa-Effekt, den beobachten wir heute halt auch wieder. Also das ist halt, es gab ja auch zum Beispiel so einen Google-Engineer, der gesagt hat, ich muss aufhören daran zu entwickeln. Es hat ein Bewusstsein entwickelt und jetzt müssen wir aufpassen, ist es überhaupt ethisch, das wieder abzuschalten. Und das haben wir damals schon beobachtet mit diesen super einfachen Mitteln. Und das finde ich super interessant, wie früh das angefangen hat, dass solche Sachen passiert sind.

Dirk:
[24:11] Ja, und wenn man sich das im Vergleich zu heute anschaut, heutzutage sind diese Systeme ja noch sehr viel ausgefeilter und geben noch viel elaboriertere Antworten.

Lucas:
[24:21] Absolut, genau.

Dirk:
[24:22] Und sind immer sehr freundlich zu Vorkommen. Also Chat-GPT, wenn du sagst, da hast du was falsch gemacht, oh ja, sorry, mein Fehler. Das ist, tut mir leid, gut, dass du das gesagt hast. Genau.

Lucas:
[24:34] Und das ist halt, ich finde das super interessant, dass das mit so einfachen Mitteln schon geht. Und das sollte man sich auch immer wieder bewusst machen, weil man halt sagt so, hey, da steckt doch mehr hinter. Und das haben die Leute damals schon gedacht. Und ja, irgendwie sollten wir das nicht denken, dass das daran liegt, dass sie dümmer waren oder so.

Dirk:
[24:57] Nee, auf gar keinen Fall. Also das definitiv nicht. Also gerade dieses ELISA, das ist, also jeder, der da so ein bisschen oder jeder von euch, der da so ein bisschen Interesse daran hat, wie gesagt, wir verlinken das und die Konzepte dahinter lassen sich auch als nicht technisch versierte Personen gut verstehen. Also mit welchen Mitteln da dieses System geantwortet hat und da suggeriert hat, dass es irgendwie sehr empathisch ist.

Lucas:
[25:23] Ja, genau.

Dirk:
[25:25] Ja, und das war halt damals schon sehr, sehr einfach gemacht. Ja. Okay, also das Nächste ist dann so ein bisschen, reisen wir jetzt so ein paar Jahre in die Zukunft, was, ja, dann hat künstliche Intelligenz in Anführungszeichen oder irgendwas, was irgendwas simuliert hat, mit den Computerspielen natürlich irgendwo angefangen, dass man dann irgendwelche Computergegner hatte. Ja. Und da so der, einer der großen Durchbrüche war doch sicherlich, als Deep Blue Kasparov dann im Schach besiegt hat.

Lucas:
[25:59] Genau, also auch da wieder interessant, also klar, wir, wollen ja halt nicht nur über die Geschichte sprechen, deswegen fassen wir es jetzt kurz zusammen, aber in dieser Zeit ist viel Interessantes passiert und es gab viel Wettstreit darüber, was sich durchsetzen wird an so zwei unterschiedlichen Ansätzen und so, das überspringen wir jetzt alles mal.

Dirk:
[26:19] Ihr könnt ja sagen, wenn euch das interessiert, mal eine Folge folgen.

Lucas:
[26:22] Genau. Ich bin gespannt, ob überhaupt jemand zuhört. Genau. Und das Interessante dabei ist halt, dass in dieser Zeit es auch immer wieder hieß, von verschiedenen Leuten, die auch in der AI-Branche gearbeitet haben, in fünf Jahren, da kommt der große Durchbruch und dann wird alles anders sein. Dann wird die Welt völlig Kopf stehen und alles wird sich ändern. Und das wird die Riesenrevolution und Computer werden intelligenter sein als wir. Und das ist immer wieder so.

Dirk:
[26:56] Seit vielen fünf Jahren zügig.

Lucas:
[26:57] Genau, das hört man seit vielen fünf Jahren und einer von den ganz großen Momenten, wo das passiert war, war 1997, wo dann dieses Deep Blue von IBM Kasparov geschlagen hat. Das ist ja einer der größten Schachlegenden, würde ich jetzt mal behaupten. Der Weltmeister war von 1985 bis 2000, also kann, glaube ich, schon ganz gut Schach spielen, würde ich jetzt mal als Laie behaupten und er wurde dann halt von einem Computer geschlagen und das hat dann, das war dann auf jeden Fall auch wieder eine andere Art von Intelligenz, weil ich finde das auch deswegen interessant vor, daneben zu halten, weil es eben jetzt hier etwas ist, was eben nicht spricht. Also der hat ja wirklich nur eine Figur verschoben, quasi gesagt, jetzt auf B1, jetzt auf was weiß ich.

Dirk:
[27:45] Also nicht mit einem Roboterarm hat er das gemacht, sondern da saß ja einer, der hat dann den Zettel bekommen, okay, Deep Blue setzt Springer auf C4.

Lucas:
[27:53] Genau, so muss man sich das vorstellen. Das heißt also, da ist es wirklich keine Kommunikation mehr, aber da haben dann Leute auch wieder Intelligenz drin gesehen, weil halt Schachspielen etwas ist, was ja sonst nur Menschen können. Also ich glaube, es gibt jetzt keinen Schimpansen, mit dem du Schach spielen kannst, wäre mir zumindest neu. Das heißt also, irgendwie ist da was drin und deswegen, vielleicht ist das jetzt ja Intelligenz. Und auch da wurde dann wieder die Vorhersage getroffen in fünf Jahren quasi. Entweder die Welt vorbei oder wir sind alle in der heilen Zukunft.

Dirk:
[28:28] Wir fliegen mit Autos.

Lucas:
[28:29] Genau, die fliegen mit Autos. Das ist irgendwie so eine Vision, die ist irgendwann verloren gegangen. Das ist komisch, aber ja, egal. Ja, also das war 1997 und dann sind wieder verschiedene Sachen passiert. Also das hat wieder den Hype wieder angedreht, nachdem der auch ein bisschen runtergegangen war. Und dann würde ich persönlich behaupten, war so das nächste große, der große Hype war dann 2011, wo es dann um Themen wie Big Data ging und Deep Learning, das waren so beides so Sachen, die zu der Zeit aufgekommen sind.

Dirk:
[29:05] Ja, und das sind bestimmt so Themen, vielleicht müssen wir da so ein bisschen noch genauer das einsortieren, weil das sind sicherlich Themen, die in der breiten Öffentlichkeit nicht so, populär, also ja, so in der Tech-Szene hat man Deep Learning und vor allen Dingen Big Data, du konntest auf keine Konferenz gehen, ohne dass der eine was von Big Data erzählt hat und alles war auf einmal Big Data und es gab tausend, Softwarelösungen für dein Big Data Zeug und wie du dann irgendwie da, Business Insights rausziehen konntest, aber anders als jetzt bei AI ist das nichts, wo ich das Gefühl habe, das ist so über den Tech-Tellerrand geschwappt und, lief bei den Logo-Kinder-Nachrichten so könnt ihr mit Big Data eure Hausaufgaben machen.

Lucas:
[29:48] Ja, das stimmt. Das ist ein guter Punkt. Also ich glaube, das ist wirklich nicht so... Also ich glaube, man hat das schon manchmal sogar auf Plakaten und sowas gesehen, aber... Und trotzdem hat es bei den meisten Leuten, glaube ich, überhaupt gar nicht auf dem Radar gewesen. Aber Big Data ist im Prinzip die Idee, stellt euch vor, ihr legt ganz viele Daten ab und irgendwann habt ihr so viele Daten, dass ihr gar nicht mehr wisst, was da drin steht, weil es einfach viel zu viel ist. Also wie so ein Daten-Messi.

Dirk:
[30:15] Und das ist ja so ein bisschen gar nicht mal entstanden oder das war so mein Gefühl, dass man das vorhatte, sondern es ist so ein bisschen dadurch gekommen, dass Facebook war da, Google ist immer größer geworden, diese Daten sind einfach entstanden. Und die Leute haben irgendwie versucht, okay, wir haben jetzt hier wirklich Unmengen an Daten, die super schwierig zu handeln sind. Was können wir damit tun? Das war ja auch so ein Stück weit kuriose Frage. Okay, was machen wir jetzt mit dem ganzen Kram, der sich hier so angefallen ist?

Lucas:
[30:45] Ja, ja, absolut. Und da kommt halt wieder so ein Thema mit durch, was wir heute auch wieder sehen. Also es gibt diesen Information Overload. Es gibt einfach viel zu viele Informationen und wir möchten irgendein Ding haben, was uns hilft, durch die Informationen durchzusteigen und die verstehbar zu machen für uns. Und manche Leute sagen halt irgendwie, ja, Bücher sind zu lang, ich kann nicht so viele Bücher lesen. Ich lese nur die Zusammenfassung. So ein bisschen, so kann man sich das halt vorstellen. Also es gibt halt einen Riesenhaufen Daten. Wenn du dir das alles anguckst, dann bist du tot, bis du alles angeschaut hast. Also willst du jetzt irgendwie so einen Zauberkasten haben, der dir Insights, in Anführungsstrichen, das ist glaube ich so das Wort, was da häufig fällt, daraus generiert, sodass du danach erweist, Was ist alles passiert? Also, weiß ich nicht, Sensoren sammeln unfassbare Mengen von Daten und du willst nachher halt wissen, kommt jetzt ein Gewitter oder ein Erdbeben? So was möchtest du dann vielleicht aus diesen Daten herauslesen?

Dirk:
[31:47] Oder ganz einfach so Sachen, was möchte der Dirk denn am liebsten bei Netflix gucken. Also das ist ja auch, diese ganzen Dienste, die da entstanden sind, die haben einfach Unmengen an Daten erfasst, mehr oder weniger unfreiwillig am Anfang, weil die einfach angefallen sind. Man hat sich überlegt, was können wir dann daraus machen? Also unabhängig jetzt von irgendwelchen wissenschaftlichen Mehrwertschaften war auch die Wirtschaft einfach daran interessiert, können wir das irgendwie monetarisieren? Können wir da so Recommender-Engines, war dann irgendwie so ein Riesending, was über die Leute dann Abschlussarbeiten darüber geschrieben haben und sowas bei mir im Umfeld.

Lucas:
[32:24] Ja, absolut. Und vor allem, heute kennen wir das auch irgendwie von ganz vielen Sachen wie Netflix, vielleicht Spotify oder Apple Music, das uns halt irgendwie Musik empfiehlt aus diesem unendlichen Haufen von Musik, den es gibt, weil das halt irgendwie sich anschaut. Leute, die das gehört haben, hörten auch das. Und wir kennen auch alle, wo das dann zusammenbricht, wenn wir dann irgendwie auf Otto.de eine Waschmaschine kaufen und am nächsten Mal fragt der eine, willst du nicht eine von diesen anderen fünf Waschmaschinen auch noch kaufen? Andere Leute, die diese Waschmaschine angeguckt haben, haben sich auch diese Waschmaschine angeschaut. Aber im Kern ist es trotzdem dasselbe. Es geht darum, irgendwie aus dieser unendlichen Wust an Informationen irgendwas zu extrahieren. Und diesen Wunsch haben wir halt immer intensiver, umso mehr dieses Informationszeitalter, also dieses Internet mit all seinen unendlichen Informationen und immer weiter fortgeschritten ist, immer schwieriger wurde herauszufinden, hey, was steckt denn da so drin, also in diesem ganzen Wust.

Lucas:
[33:29] Genau. Und da jetzt als so eine persönliche Anmerkung, so zu dem Zeitpunkt, da war ich halt im Studium und da habe ich dann auch in Vorlesungen die erste Mal irgendwie solche Sachen aus so einer technischen Perspektive überhaupt gehört. Also vorher kann ich das halt nur als Science Fiction oder sowas, aber dass es sowas gibt und wie das so ungefähr funktioniert, das war so die Zeit, wo ich das kennengelernt habe.

Lucas:
[33:55] Genau. Und der andere Begriff, Deep Learning, der ist auch zu dem Zeitpunkt aufgekommen, das ist eben eine Art von, in Anführungsstrichen, künstlicher Intelligenz, die eben durch, wo die Leute, die das vertreten, behaupten, dass es so funktioniert, wie wir lernen und Leute, die sich mit Lernen auskennen, sagen, nein, so funktioniert Lernen nicht.

Lucas:
[34:22] Aber genau, da gibt es zum Beispiel Reinforcement Learning, wo es halt einfach darum geht, dass du der Maschine immer wieder, also die Maschine sagt so, hier, ich habe dieses Ergebnis, wie findest du dieses Ergebnis? Und dann sagst du, dieses Ergebnis ist schlecht. Und dann sagt es, hier ist das nächste Ergebnis, wie findest du das? Oh, das ist gut. Und hier ist das nächste Ergebnis, ja, das ist auch gut. Und aus diesem Schritt für Schritt wird es dann halt, weiß es dann halt irgendwann, was sind erwartete Ergebnisse und was sind nicht erwartete Ergebnisse und das ist jetzt eine sehr vereinfachte Version, aber so kann man sich das ein bisschen vorstellen, dass es dann eben irgendwann vertraust du dann einfach darauf, dass wenn du fragst, dass dann halt auch das Richtige rauskommt, weil du hast ja schon 2000 Mal gesagt, was gut ist und was schlecht ist und das ist in üblicher Weise eben, das ist als wichtiger Begriff, weil das wird auf jeden Fall nochmal vorkommen. Es gibt halt dieses Training-Set. Das ist also ein Set von Daten, das du dem Ding gibst, um darauf zu lernen. Und dann gibt es eben das Control-Set, wo du sagst, okay, ich möchte jetzt, dass du mir hierzu auch Antworten gibst. Das hast du aber in deiner Lernphase noch nie gesehen. Und du musst jetzt das aber richtig beantworten. Aber sowohl das Training-Set als auch das Lern-Set sind schon mit richtig und falsch markiert.

Dirk:
[35:36] Du weißt, ein Mensch hat das vorher geprüft.

Lucas:
[35:40] Genau, ein Mensch hat vorher gesagt, das ist korrekt, das ist nicht korrekt, das ist korrekt, das ist nicht korrekt, in beiden Sets. Und dann, wenn jetzt das Trainingsset wurde durchgenudelt, dann kriegt es eben danach dieses Überprüfungsset vorgesetzt, hier, mach das auch. Und dann muss es halt schaffen, alles so zu beantworten, wie du das auch beantwortet hättest. Und das ist super wichtig, ein ganz, ganz wichtiges Konzept, weil das ist leider in manchen Systemen ziemlich verloren gegangen. Aber gut, da kommen wir später mal drauf zurück. Aber das ist quasi so diese Idee. Und auch ganz, ganz wichtig, diese zwei Mengen sollten nicht miteinander verbunden sein. Du solltest nichts auf dem trainieren, mit dem du nachher kontrollierst, weil das macht den Sinn kaputt.

Dirk:
[36:23] Das ist ganz interessant. Im Deutschen Museum Bonn, das ist ja so ein kleiner Mini-Ableger vom Deutschen Museum, also das Deutsche Museum in München ist ja so ein riesiger Komplex und in Bonn ist das mehr so ein Hinterhof, Schuppen, aber ich glaube, das gibt es nicht mehr da, aber die hatten mal so eine temporäre Ausstellung zur künstlichen Intelligenz und da hatten die das visualisiert, wie dieses Set, wie diese Muster durchlaufen und du konntest quasi, als Besucherin Fehler da einbauen und hast dann gesehen, was da am Ende dabei rausgekommen ist. Das war sehr cool, um sich vorzustellen, was da passiert, weil es ist dieses Trainings- und Kontrollset Jo, keine Ahnung, was der Computer damit tut. Aber das war da sehr anschaulich visualisiert.

Lucas:
[37:06] Cool, das ist auf jeden Fall auch eine gute Empfehlung. Wer es mehr so auf einer Audiospur hören möchte, ich habe 2018 mit einem Kollegen zusammen bei meinem damaligen Arbeitgeber auch eine Podcast-Folge zum Thema Deep Learning gemacht. Aufgenommen, wenn euch das jetzt aus der mehr technischen Sicht interessiert. Aber das ist definitiv wesentlich technischer als das, was wir jetzt hier erzählen. Also, ja, your mileage may vary. Genau. Ja, und ich würde sagen, jetzt der nächste Schritt, der auch interessant ist, 2015 gab es eine Gruppe von heute relativ bekannten Menschen wie Elon Musk und Sam Altman, die zusammen OpenAI gegründet haben. Als gemeinnütziger Verein aus Angst vor etwas, was sie Artificial General Intelligence genannt haben. Das ist quasi eine Intelligenz, die auf einem menschlichen Level operiert, also alles beantworten kann, was auch ein Mensch machen kann oder es sogar noch mehr kann als das. Und aus Angst davor, hier sind wir wieder bei so Sachen wie Terminator und solchen Geschichten, Aus Angst davor haben sie was gegründet, um davor uns zu schützen. Heute ist das kein Verein mehr, sondern ein sehr...

Lucas:
[38:28] Reiche Firma, die sehr viel Geld damit macht, aber sie kommt eigentlich ursprünglich aus dieser angeblichen oder ernst gemeinten Angst vor dieser künstlichen Intelligenz und ja, dieses offene Modell sollte uns davor schützen und was Besseres sein als das, was so Firmen wie Google und so weiter machen, weil denen kann man ja so nicht trauen und uns kann man trauen, weil wir sind ja open.

Dirk:
[38:51] Wir haben Open im Namen stehen.

Lucas:
[38:53] Genau, turns out, open ist nicht so ein gutes Geschäftsmodell, also haben sie das dann später fallen lassen und ja, lasse ich jetzt wieder jeden selbst bewerten, ob sie so viel an der Rettung der Menschheit interessiert sind. Genau. Und deswegen ist es halt auch interessant, weil 2016 tatsächlich dann so auch noch ein weiterer großer Meilenstein passiert ist. Ich glaube, viele Leute kennen auch das Spiel Go, das Brettspiel Go, das ja ja, in vielerlei Hinsicht komplexer ist als Schach und deswegen für viele galt das so als unmöglich, dass ein Computer das spielen könnte. Also Schach, okay, aber Go, das geht nicht. Und dann hat halt 2016 Google mit AlphaGo, mit der Software AlphaGo einen, den Sedol, oder ich weiß nicht, wie man das ausspricht, aber Sedol, glaube ich, geschlagen, der ein Neuendahn-Meister im Go ist. Also vergleichbar mit sowas wie einem Weltmeister.

Dirk:
[39:52] Das ist schon eine sehr große Nummer.

Lucas:
[39:55] Ja, genau. Würde ich auch behaupten und würde ich sogar sagen, ist ja auch immer noch. Genau, und das basierte eben auf diesen Sachen wie Deep Learning, also genau das, worüber wir eben gesprochen haben, und hat dann eben auch, war der Mensch auf einmal nicht mehr das intelligenteste Ding, in Anführungsstrichen, weil, ja, wie gesagt, ist halt die Frage, ob das wirklich Intelligenz ist oder ob das vielleicht was anderes ist. Genau. Und um diesen Überflug dann zu beenden, 2017 hat Google dann eine Architektur für Deep Learning vorgestellt, die Transformer heißt. Und das ist das, was hinter solchen Systemen wie ChatGPT, GPT und vielen anderen Sachen steckt. Und genau, das ist jetzt viel zu technisch, um das jetzt hier zu erklären, aber da habe ich auch einen Artikel drin verlinkt in den Shownotes, wo das sehr gut erklärt wird, wie das funktioniert. Aber ich möchte so quasi eine Zweisatzerklärung davon, wie das funktioniert, einfach damit man sich das ein bisschen vorstellen kann. Eigentlich ist das ein stochastisches Modell, was die Frage stellt, also hier ist ein Satz Teil, ja, was ist das nächste Wort in dem Satz? Das kannst du mit einem Transformer hervorragend bauen und wenn du das Wort rangehängt hast, dann kannst du, hängt noch ein.

Dirk:
[41:24] Dann machst du es einfach immer weiter.

Lucas:
[41:25] Bis du einen langen Text generiert hast und dann halt, wahrscheinlich wird das nächste Wort keins mehr sein, weil ich bin fertig. Und so kann man sich diese Modelle vorstellen.

Dirk:
[42:03] Aber der ist natürlich, sehr, sehr wichtig, weil ChatGPT und Konsorten sind eben LLMs und das wird immer da mit in einem Zug dann genannt. Daher ist es wichtig, das hier noch einmal ganz kurz einzuordnen. Und Large-Language-Modelle sind Wahrscheinlichkeitsmodelle, die auf sehr großen Daten trainiert werden, wie zum Beispiel dem Web. Damit sind sie automatisch, wie wir das später hören werden, eben sehr rechenintensiv und energiehungrig. Es gibt auch Systeme wie AlphaFold, welches Proteinstrukturen vorhersagt, sind auch Transformer-Architekturen im Untergrund, aber eben kein LLM. So, das nur so als Einordnung. Also LLMs sind Large Language Models, die auf sehr großen Datenmengen wie beispielsweise dem Web basieren. Dann wieder zurück in die Vergangenheit. Ciao.

Lucas:
[42:54] Und die basieren eben auf diesem Trainieren, auf diesen Datensets, weil die dann eben gucken, okay, statistisch gesehen, wenn ich jetzt diese Millionen von Texte anschaue, ist das wahrscheinlich das nächste Wort, wenn das da kam. So kann man sich das vorstellen. Und umso größer das Datenset ist, umso komplexer wird das ganze System. Weil ihr könnt euch vorstellen, das ist halt ein Riesenwust von Daten und dann sind die Wahrscheinlichkeiten halt irgendwann ganz schön wild. Genau. Und solche Systeme wie GPT, die lernen, also da ist das Trainingsset, das gesamte Internet in vielerlei Hinsicht. Die sammeln halt alles, was sie im Internet finden, saugen das in sich rein und dann versuchen sie darauf, halt dieses stochastische Modell aufzubauen. Und deswegen können sie halt auch Text generieren, der so aussieht wie das, was ein Mensch schreiben würde. Weil ja, das stochastisch sehr wahrscheinlich ist, dass die Texte, die im Internet stehen, so aussehen wie Texte, die ein Mensch geschrieben hat, sehen die halt auch so aus wie ein Text, der ein Mensch geschrieben hat. Deswegen steht da auch oft Sachen drin, die stimmen. Weil wenn... Also wenn genug richtige Informationen im Internet stehen.

Dirk:
[43:58] Dann ist die Wahrscheinlichkeit größer, dass sie auch bei dieser Ausgabe drin stimmen.

Lucas:
[44:03] Exakt.

Dirk:
[44:04] Muss aber nicht.

Lucas:
[44:05] Muss aber nicht, genau. Aber auch hier gibt es halt auch wieder Leute, die das taggen, also die sich hinsetzen und sagen, nein, ja, nein, ja, ganz, ganz oft. Zu denen kommen wir dann später nochmal zurück, weil das ist quasi nochmal ein Kapitel für sich. Das ist nämlich gar nicht so einfach. Aber ich würde behaupten, an der Stelle hat eigentlich dieser Teil der AI-Community mit diesem Prinzip von Trainings-Set und Kontroll-Set gebrochen, weil das Trainings-Set jetzt eigentlich nicht mehr vollständig getaggt wird. Weil das ist gar nicht möglich. Du kannst ja nicht das gesamte Internet taggen. Wie soll das gehen? Ab einer bestimmten Größe von Datenset kannst du das nicht mehr tun und dann musst du dich auf andere Sachen verlassen. Das ist einfach quasi die Masse an Daten, das ist ja so ein bisschen der Marketplace of Ideas, sorry, could not resist, das quasi aus dem großen Haufen von Ideen wird schon die beste durchkommen. Das ist quasi so das Prinzip Hoffnung, was in so einem System drinsteckt und ja, funktioniert natürlich auch häufig genug, sage ich jetzt mal.

Lucas:
[45:10] Aber jeder, der schon mal im Internet war, weiß auch, dass da viele Sachen stehen, die nicht ganz stimmen oder gar nicht stimmen und die sind halt auch da drin. Und ich würde behaupten….

Lucas:
[45:50] Wie das zum Beispiel in einem wissenschaftlichen Paper formuliert wurde, dann basiert auf einmal das aus Sachen, die eher aus wissenschaftlichen Papern als aus irgendwelchen random, Antworten von gutefrage.de kommen und dann ist die Antwortqualität vermutlich höher. Das heißt also, die Art und Weise, wie ich es reinschreibe, beeinflusst, was rauskommt. Das ist, glaube ich, auch, zumindest nachvollziehbar. Es ist zu komplex, um es tatsächlich beweisen zu können. Das ist halt auch eine der Probleme, weil es einfach viel zu viel Kram ist, der da drin steckt. Aber so bestimmte Intuitionen passen schon zu dem, was man nachher beobachtet. Und kommen wir auch nachher nochmal zu einem separaten Abschnitt. Aber es gab dann immer mal wieder Behauptungen von Google-Engineers und von Open-AI-Engineers, dass es Dinge kann, die gar nicht im Training-Set drin standen. Und jedes davon wurde eigentlich immer widerlegt, dass das nicht stimmte. Ja, also beispielsweise hat irgendjemand behauptet, es hätte sich eine Sprache beigebracht, die gar nicht im Trainings-Set drin stand. Das stimmte nicht. Und nachher war die einfach im Trainings-Set mit drin. Es hatte einfach nur keiner mehr einen Überblick gehabt, was alles in diesem Trainings-Set war. Und es kann nichts herausfinden, was da nicht drin steht. Das ist nicht möglich.

Lucas:
[47:01] Es kann halt Dinge generieren, die einfach zufällig sind. Durch diese große Datenmenge hast du halt ein gewisses Zufallselement. Aber es kann nicht Dinge erfinden, die nicht funktionieren. Genauso kann es halt eben, wenn du eine Aufgabe stellst, eine Logikaufgabe, und die wurde schon tausendmal im Internet gestellt und beantwortet, ist es sehr wahrscheinlich, dass sie korrekt beantwortet wird, weil das eben so autocompleted wird von dem, was ursprünglich da stand. Wenn du aber eine Variation davon machst, dann kann es sein, dass es dann eben überhaupt nicht mehr zu dem passt, was du gefragt hast. Also es ist eben keine Zauberei. Also das ist ganz, ganz wichtig. Es ist auch eigentlich, ja, kommen wir wieder zur Frage, was ist Intelligenz? Aber ist das Intelligenz? Weiß ich nicht. Es ist halt irgendwie eine Reproduktion von Informationen aus dem großen Internet. Und ja, der wurde von Intelligenz erschaffen, dieser Informationsberg. Aber ist dann diese Transformation davon eben auch Intelligenz? Würde ich zumindest mal ein Fragezeichen anschreiben. Aber es erklärt auch, warum für viele so der Effekt da ist, wow, das klingt so wie ein Mensch. Weil ja, es ist halt auf Erzeugnissen von Menschen trainiert. Und deswegen kommt da auch was raus, was so aussieht wie das, was ein Mensch schreiben würde.

Dirk:
[48:22] Es ist ja auch beeindruckend. Das lässt sich ja... Ja, wenn man das so sieht, dann ist man erst mal, boah, krass. Weil, so eine kleine Anekdote vielleicht hier am Rande. Wie gesagt, irgendwann kam das nämlich mal in den Logo Kindernachrichten. Da wollten die Kinder halt wissen, hä, was ist denn das jetzt genau? Dann haben wir uns halt hingesetzt und dann haben wir halt bei ChatGPT gesagt, hier, bitte schreib uns doch mal eine Kurzgeschichte von Link in Hyrule. Meine Kinder kennen sich sehr gut mit Link und Hyrule. Und es war nach dem zweiten Satz halt klar, was ist denn das? Das ist der totale Humbug. Aber es sieht halt total krass aus, wie das Ding dann da anfängt zu tippen und so absatzweise Text generiert. Und du denkst, das sind vollständig Sätze, das Satz, alles da. Du liest diesen Satz und das klingt ja erstmal vernünftig. Also rein sprachlich vernünftig. Ob das logisch ist und ob das inhaltlich korrekt ist, ist halt dann schwierig. Und das ist ja dann wieder, wo du eben meintest, diese Aufgabe von kontrolliertem Trainingsset ist halt da dann extrem problematisch, weil du weißt gar nicht mehr, was ist da alles drin gewesen. Und die Nachvollziehbarkeit der Antworten ist halt unmöglich. Also du kannst dir der Chat-TPT auch nie nach einer Quelle fragen. Dann sag ich immer, ich hab das ganze Internet gelesen, das stand da irgendwo.

Lucas:
[49:45] Ja, absolut, genau. Und das ist halt wirklich wichtig, einfach sich klarzumachen, wenn man das benutzt. Also das muss jeder für sich selbst entscheiden, ob er so ein System nutzt. Ich persönlich habe mich dagegen entschieden, solche Systeme zu benutzen. Aber wenn du diese Entscheidung für dich triffst und sagst, hey, ich möchte das benutzen, sei dir darüber bewusst, dass das so funktioniert. Es ist kein Zauberapparat. Es ist ein extrem komplexes System und ja, es kann erstaunliche Dinge erzeugen. Also da möchte ich auch gar keinen Zweifel dran äußern. Aber es ist keine Wahrheitsmaschine. Also Wahrheit ist ja sowieso schon wieder ein ganz schön komplexes, Konzept, aber es ist zumindest mal fraglich, ob alles, was dabei rauskommt, stimmt und das wissen wir halt auch alle, dass da oft Sachen rauskommen, die halt eben nicht so, hundertprozentig stimmen oder gar nicht und das ist, glaube ich, daraus eben auch klar, warum das so ist. Genau.

Dirk:
[50:50] Vielleicht, da kommen wir glaube ich auch später nochmal genauer drauf, aber schon mal, dass das als erste Einordnung noch passiert. Es gibt schon Abstufungen von diesen Systemen. die mit Deep Learning und diesem Transformer gearbeitet haben und wo durchaus Systeme entstanden sind, die sehr spezialisiert Dinge tun, die die Probleme in dem Maße nicht haben. Also irgendwelche Übersetzungswerkzeuge, Transkriptionssysteme, fallen mir da jetzt so spontan als Beispiel ein, wo das Trainingsset deutlich kontrollierbarer auch ist, weil du eben nicht das ganze Internet da reinfütterst, sondern sagst, okay, ich möchte Deutsch nach Englisch übersetzen und dann kann ich halt ein sehr dediziertes Trainingsset ansetzen.

Lucas:
[51:35] Genau, das ist für mich auch so ein Ding, was ich gerne den Leuten mitgeben würde, so als einfaches Gedanke. Was, denkt ihr, erzeugt eine höhere Qualität? Das gesamte Internet als Wessensbasis oder ein Set, was kuratiert wurde von irgendjemandem, bevor es da reingepflegt wurde? Und es gibt zum Beispiel eine deutsche Firma, die heißt DeepL, kann man sich vielleicht denken, wofür das L steht, Learning vielleicht, das heißt also die sind große Fans von DeepLearning und die haben eine Übersetzungssoftware geschrieben, die auch also aus meiner persönlichen Erfahrung oft bessere Ergebnisse erzeugt als Google Translate, ist auch glaube ich was, was viele Leute sagen.

Lucas:
[52:19] Und das basiert eben auch auf DeepLearning und spätere Versionen von DeepL basieren sogar auch auf Transformer-Technologie. Die haben aber eine ganz andere Philosophie bei der Auswahl von dem Trainings-Set, was auch einfach daran liegt, dass die nicht diese unendlichen Ressourcen haben, die einige von diesen anderen Firmen haben. Die könnten sich das gar nicht leisten, auf so einem riesigen Trainings-Set zu trainieren, aber die, arbeiten eben mit Übersetzern und so weiter zusammen und die haben dann eben schon mal das Trainings-Set vorgetaggt und so weiter, wodurch die Ergebnisse oftmals vielleicht sogar besser sind als das, was das große Modell erzeugt. Aber wie gesagt, das kann ich nicht Also hierfür gibt es keinen Beleg. Das müsste man untersuchen, ob die Ergebnisse wirklich besser sind. Aber ich würde zumindest mal ein großes Fragezeichen daran stellen, dass dieses mehr Daten ist besser, ob das wirklich stimmt. Ich würde sehr stark bezweifeln, weil darauf gibt es eigentlich keine Hinweise und stärker kuratierte, kleinere Datensets. Können halt erstaunlich gute Ergebnisse erzeugen und haben auch einige der anderen Nachteile, wie großer Energieverbrauch, vielleicht auch nicht. Also DeepL verbraucht wesentlich weniger Energie im Training als sowas wie ein GPT-4 oder sowas.

Lucas:
[53:35] Und das einfach so als Gedanke. Es besteht immer so ein bisschen, das haben wir auch in der Politik oft, dass Technologien als schlecht oder gut bezeichnet werden. Und das ist fast immer Quatsch. Also Kryptografie ist nichts Schlechtes oder Gutes. Man kann es für gute Sachen benutzen. Ich kann damit mit Dirk kommunizieren und keinem geht das was an, was ich mit Dirk schreibe. Ich kann es aber auch benutzen, um irgendwie, weiß ich nicht, Waffen zu kaufen. Weiß ich nicht. Das sind beides Optionen. Das ist aber nicht inhärent in der Technologie. Also was ich damit tue, ist dann eben der nächste Schritt. Aber das heißt nicht, dass wir als Menschen, die diese Sachen machen, von dieser Moral frei sind, weil die Technologie ist ja neutral. Das möchte ich damit überhaupt nicht ausdrücken. Das ist eigentlich genau das Gegenteil von dem, was ich sagen möchte. Eigentlich möchte ich damit sagen, genau deswegen müssen wir die Verantwortung dafür übernehmen.

Dirk:
[54:30] Ja, weil die Technologie sie nämlich nicht hat. Technologie ist neutral und unser Handeln bringt sie in das eine oder andere dann eben.

Lucas:
[54:37] Genau. Und deswegen gibt es meiner Meinung nach auch sehr, sehr gute Gründe, sowas wie Deep Learning oder Transformer einzusetzen. Aber das, was ich aktuell als Trend sehe, das sehe ich das eben nicht. Und das wird gerade ein bisschen zu steil abgefeiert, ohne darüber nachzudenken, was hat das eigentlich für einen Hintergrund? Und hilft das eigentlich und löst das eigentlich die Probleme, die wir lösen wollten? Und das ist so ein bisschen das, was ich auch mitgeben möchte eigentlich an die Zuhörenden, da einfach mal selber drüber nachzudenken, was bedeutet das? Und ganz klar, das heißt nicht, diese Technologien sind schlecht, auf keinen Fall, sondern es gibt sehr fragliche Verwendungen dieser Technologien und da sollten wir uns dann selbst ein moralisches Urteil darüber fällen, ob wir das unterstützen wollen oder benutzen wollen oder nicht.

KI ist Science Fiction und Marketing, keine Kategorie

Dirk:
[55:31] Aber das ist vielleicht eine gute Überleitung von dem historischen Überblick, wo das alles so herkommt, wo das seine Wurzeln hat. Da haben wir jetzt vielleicht mal so als Zwischenfazit AI, der Begriff Künstliche Intelligenz, Artificial Intelligence, ist ein Begriff nicht aus der Technologie-Szene, sondern aus der Science-Fiction-Serie, also aus der Fiktion erschaffen und kommt eben daher und ist dann eben in Technologie rübergekommen. wandert, so ein Stück weit. Wir kennen den Begriff seit 1940ern so in der Größenordnung, also jetzt gut 80 Jahre kursiert der, ist immer ein Stück weit mit Angst besetzt gewesen. Man hat mit der Angst vor dem, was uns da bedrohen könnte, gleichzeitig mit den Möglichkeiten, die auf uns zukommen können, gespielt. Es gibt immer mal wieder so Stufen, wo das so einen Sprung gemacht hat in der Entwicklung.

Dirk:
[56:31] Wir haben gelernt, dass diese Dinge trainiert werden müssen und dass die Auswahl dieser Trainingsdaten eine hohe Relevanz hat und dass diese Systeme wie ChatGBT, von denen heute oft die Rede ist, eben statistische Modelle unten drunter sind. Okay, dafür erstmal ein sehr schöner Überblick. Ich hoffe, ihr konntet soweit folgen und fandet es bisher auch schon ganz gut unterhaltsam. Gut, dann schauen wir uns doch mal an, was so heutzutage der Stand ist.

Dirk:
[57:00] Wir nehmen ja zum Beispiel wieder eine kleine Anekdote, mehr Anekdoten kriege ich heute nicht beigetragen, ist zum Beispiel, wir zeichnen unseren Podcast über Zencaster auf. Und jetzt seit einiger Zeit hat Zencast auch so ein AI-Feature. Und dann, also Zencast, da zahlt man halt monatlich so einen kleinen Obolus für, ist alles echt okay. Und für das AI-Feature müsste ich, glaube ich, 300 Dollar pro Monat zahlen. Dafür, dass es dann total intelligent die besten Schnipsel raussucht, Social Media Posts und dann direkt den Highlighted, den Speaker, die Speakerin, die da gerade was Spannendes gesagt hat. Also selbst in so einem Tool, um irgendwie remote einen Podcast aufzuzeichnen, ist jetzt AI drin verbunden. Das heißt, es ist ja, das meine ich ja eben auch anders als dieses Big Data, ist AI was, was echt überall dran klebt aktuell. Es gibt ja irgendwie nichts mehr, da habe ich das Gefühl, wo nicht Ask AI, hier jetzt mit AI Featuren irgendwie dransteht. Und ich glaube, da ist ganz viel sehr schwammig geworden mittlerweile. Was ist denn überhaupt damit noch gemeint, oder?

Lucas:
[58:14] Ja, also eigentlich können wir eigentlich schon an der Geschichte sehen, dass AI hat keine Bedeutung, weil AI ist eine Vision. Es gibt ja dieses Zitat von Arthur C. Clarke, any sufficiently advanced technology is indistinguishable from magic. Und man könnte da Technology auch durch AI setzen. Immer wenn halt quasi keiner mehr sagen kann, wie es funktioniert, dann ist es halt AI geworden. worden. Ob das nachher auf dem Level von einer Eliza ist oder ob das halt irgendwie den gesamten Planeten abgeschnorchelt hat, um daraus ein Trainingsset und ein Modell zu bauen, ist irrelevant. Es geht halt um dieses Gefühl. Also AI ist mehr so ein Gefühl. Es fühlt sich so an, als wäre es intelligent und deswegen ist es für mich AI. Das ist, glaube ich, wichtig, weil es gibt keine richtige Definition davon. Es gibt AI-Lehrstühle und trotzdem gibt es das keine richtige Definition von AI, was schon ein bisschen lustig ist.

Dirk:
[59:14] Und du hast hier in den Shownotes ja auch vielleicht dann doch den einen oder anderen Brückenschlag nochmal zum Thema Brettspiel oder Spiele, weil auch in Computerspielen, gut, da ist es jetzt schon länger, da kommt das Wort KI vor und der, KI-Gegner, das ist ja schon sehr, sehr lange auch so früher in StarCraft und so konnte man die KI-Level hochdrehen wie krass die KI ist, gegen die du da spielst. Und jetzt seit einiger Zeit beobachte ich auch, dass in irgendwelchen kooperativen Brettspielen dann von den KI-Decks die Rede ist, die dann da sehr intelligent, das Kartendeck ist die KI. Ja, also das ist ein weiteres Indiz dafür. Das ist halt ein völlig leerer Begriff, der für alles und nichts gebraucht werden kann.

Lucas:
[1:00:05] Genau. Ich glaube, das ist so der Begriff, den man ja eigentlich oft benutzt, ist dieses Automaton oder so.

Dirk:
[1:00:10] Ja, Automat, genau. Und das ist, das finde ich, trifft es viel, viel besser, weil es ja die, also das ist ja von, ja, da hast du mich jetzt auf den falschen Fuß erwischt. Ich glaube, von Tucci, der hat diese Automat Factory ursprünglich gemacht und die begründen das auch mit irgendwelchen, aus der Renaissance kommt dieser Begriff Automat aus Italien. Irgendwelche automatischen Dinge, die da irgendwie, ihre Arbeit tun und dann irgendwas machen. Das trifft es viel besser als AI für diese Zwecke, finde ich.

Lucas:
[1:00:45] Ja, also ich würde halt behaupten, dass es in den meisten, also was meistens mit AI gemeint ist, ist, es geht um eine Automatisierungstechnologie, die Arbeit, die eigentlich von den Menschen erledigt wird, teilweise oder vollständig selbst erledigen kann. Also quasi einem diese Arbeit abnimmt, wo man sagen würde, eigentlich müsste das ein Mensch tun. Also, ich weiß nicht, hier sind 100 Bilder, sag mir, welcher davon ist ein Hund oder eine Katze, würdest du normalerweise einen Menschen mit beauftragen müssen, warum auch immer du das brauchst, aber ist egal. Und jetzt hast du halt ein AI und das ist ein Klassifizierungssystem und ja, jetzt sag du bitte mal, wer ist was. Hat natürlich schon mittlerweile absurde Züge, dass wir dann von Google gefragt werden, wo ist das Motorrad? Um zu beweisen, dass wir ein Mensch sind und im Hintergrund trainieren wir damit die Maschine, damit die so mehr ist wie ein Mensch. Also egal, da kommen wir dann wirklich in absurde Territorien.

Die Zukunft? AGI: Artificial General Intelligence

Dirk:
[1:01:47] Das ist aber immer wieder lustig, das muss man sich immer wieder zu Gemüte führen, wenn man das nächste Mal davor sitzt und die Zebrastreifen markieren soll.

Lucas:
[1:01:55] Ja, genau. Ich bin heute Morgen wieder mal an einem gescheitert. Genau. Naja, auf jeden Fall, das ist halt einfach, also für mich wäre das so ein bisschen das, was die meisten Leute meinen, wenn sie AI sagen, ist halt, ich habe irgendeine intellektuelle Aufgabe, die eigentlich ein Mensch lösen müsste und jetzt macht es eine Maschine. Und im Kern geht es dabei quasi um Produktivitätssteigerung, also weil vorher hättest du quasi Leute anstellen müssen und jetzt kannst du das halt ohne Leute machen.

Lucas:
[1:02:28] Und da kommen wir eigentlich auch an einen, finde ich, sehr interessanten Teil von diesem AI-Gedanken. Wenn wir uns Sachen wie Star Trek angucken oder so, das ist ja eher so in diesem, positiven Science-Fiction. Es gibt ja viele negative Science-Fiction, aber die sind ja eher auf dem positiven Level. Dann kommen wir dann halt durch solche Sachen dazu, dass wir alle nicht mehr arbeiten müssen, weil jetzt machen das halt die Maschinen für uns und dann können wir uns schön in den Park setzen und auf einer Staffelei ein Bild malen und alles wird super. Ähm, Aber ist das wirklich das, was die Sachen, die wir aktuell da sehen, erreichen? Oder erreichen wir damit eigentlich was ganz anderes? Nämlich, dass unser Arbeitsdruck eigentlich noch höher wird. Einfach nur so eine Frage. Ich habe darauf eine Antwort, aber ich lasse euch selbst die Antwort darauf geben aus eurer Sicht. Was denkt ihr, wenn es wirklich eine Technologie gibt, die 50% eurer Arbeit einspart? Bedeutet das auf einmal, dass ihr nur noch 50% arbeiten müsst? Ist, Option A, oder bedeutet das, dass nächstes Jahr die Hälfte eurer Kolleginnen und Kollegen gefeuert werden, weil jetzt brauchen wir ja nicht mehr so viele Leute. Das heißt also, ich würde zumindest mal in Frage stellen, ob selbst wenn das funktionieren würde, dass das so super effektiv ist, dass das zu den Gunsten von Leuten wie uns nachher abläuft. Oder ob das nicht eher dafür da ist, irgendeinen Stock-Value nach oben zu treiben. Aber ja, ich glaube, ich habe schon meine Antwort gegeben. geben.

Dirk:
[1:03:58] Ja, oder anders formuliert, entweder habt ihr genauso viel zu tun oder dann 100% Zeit.

Lucas:
[1:04:02] Genau. Genau. So würde ich das persönlich sehen. Dazu gibt's halt auch irgendwie, ja, verschiedene Beobachtungen. Die Labor-Arbitrage-Theorie zum Beispiel haben mich auch was zu verlinkt. Einfach nur, ja, einfach nochmal drüber nachdenken, was ist eigentlich diese Vision? Und ich glaube...

Dirk:
[1:04:25] Sorry, um nicht dazu zu unterbrechen, das ist ja, um das nochmal klar zu machen, das ist ja nichts, was durch AI jetzt, das kennen wir seit der industriellen Revolution, die Weber-Aufstände, da ist das ja, hat das seinen Ursprung im Grunde, diese Problematiken.

Lucas:
[1:04:40] Ja, es ist einfach, deswegen finde ich es halt auch wichtig, dass irgendwie dieses Thema AI eigentlich nochmal zu betrachten als Automatisierung, weil Automatisierung ist eben nichts Neues, wir alle kennen Automatisierung und wir wissen, dass Automatisierung in bestimmten Bereichen total hilfreich sein kann und in anderen Bereichen vielleicht nicht so hilfreich ist.

Lucas:
[1:04:59] Aber dass es eben so viel, was in den letzten 100 Jahren automatisiert wurde, da müssten wir eigentlich alle nicht mehr arbeiten müssen. Also wenn alles mit rechten Dingen zugehen würde, dann hätten wir ja wirklich nichts mehr zu tun, weil wir so viel effizienter sind. Und irgendwie ist das nicht passiert. Und irgendwie arbeiten die Leute jetzt wieder mehr als vor zehn Jahren. Komisch. Also irgendwas ist da los, sage ich mal. Aber ja, das einfach nur nochmal selbst, also das jetzt unter der Hypothese, dass das wirklich so toll ist, diese Artificial Intelligence, die wir anstreben, dann finde ich, sollten wir alle nochmal für uns überlegen, wenn das unser Ziel ist, was möchte ich dann, dass dabei passiert? Und das ist irgendwie so was, was irgendwie oft verloren geht auf diesem Weg, weil es wird viel Angst davor gemacht, gleichzeitig wird aber auch alles versprochen. Also ich erinnere mich noch vor zehn Jahren gab es irgendwie eine Riesendiskussion, in zwei Jahren sind alle LKW-Fahrer, arbeitslos, weil alle LKWs werden von selbst fahren. Das war vor zehn Jahren. Also das war in der Tagesschau und allem. Also das war jetzt nicht irgendwie drei Leute, die da irgendwie einen Joint geraucht haben und sich das mal überlegt haben, sondern das war wirklich so ein gesellschaftlicher Diskurs. Heute haben wir zu wenig LKW-Fahrer. Also ganz viele Sachen werden nicht mehr zugestellt, weil wir nicht genug LKW-Fahrer haben.

Lucas:
[1:06:23] Irgendwie ist dieser Gedanke da und irgendwie ist da auch diese Angst davor da, dass wir arbeitslos werden. Aber eigentlich war doch die Idee, dass wir Artificial Intelligence haben, damit wir nicht mehr arbeiten müssen, damit wir was Cooles machen können und nicht, dass wir dann hat verhungert.

Dirk:
[1:06:35] Und wer macht jetzt was Cooles? AI macht jetzt was Cooles. AI malt Bilder.

Lucas:
[1:06:40] Ja, das ist quasi noch so the cherry on top, aber ich finde, wir sollten einfach nochmal diese Frage stellen, wenn das so funktioniert, also wenn wirklich Automatisierung Sachen macht, die eigentlich Menschen machen müssten, kriegen wir dann bitte auch diesen Teil, wo wir dann nicht mehr arbeiten müssen, sondern das machen können, was wir cool finden und den ganzen Tag Brettspiele und Rollenspiele spielen können. Der Teil darf nicht verloren gehen, wenn das wirklich das Ziel sein sollte. Wie gesagt, ich stelle groß in Frage, ob der Weg, den wir da gerade einschlagen, uns überhaupt dahin bringen könnte. Aber wenn das das Ziel wäre, bitte nochmal die Frage stellen, hey, ist das überhaupt das Ziel, auf das wir uns dazu bewegen? Finde ich einfach wichtig, weil an diesem ganzen Gelaber geht das irgendwie ein bisschen verloren. verloren, ja. Genau, und das andere, was ich noch so allgemein zu AI sagen wollte, ist, ich habe ja auch schon gesagt, AI ist so ein bisschen eine Projektionsfläche, also wir wünschen uns was und das macht halt AI und wir sehen das aktuell auch auf einem relativ gefährlichen Level, dass halt deutsche Politiker, keine Namen genannt, gibt, die dann sagen, die Klimakrise, die wird gelöst, weil wir haben jetzt AI und die AI, die löst die Klimakrise.

Dirk:
[1:07:54] Wie regelt das?

Lucas:
[1:07:55] Und wenn man AI einfach als dieses hypothetische Konstrukt sieht, ja dann ist das natürlich denkbar, weil eine Superintelligenz könnte vielleicht da was lösen, obwohl wir eigentlich die Lösung schon kennen, aber das ist ein anderes Thema. Es ist halt ein Trugschluss, dass ein, ein stochastisches Modell, was einfach nur auf dem Internet trainiert ist, eine Lösung für die Klimakrise findet. Das ist einfach Quatsch. Ich weiß, das ist vielleicht ein kontroverses Statement, aber es ist einfach Quatsch. Wieso sollte das so sein? Das ergibt keinen Sinn. Das ist nicht der Weg dorthin, eine Maschine zu erfinden, die die Klimakrise löst. Wenn es diesen Weg gibt, schön, aber das ist nicht der Weg. Das ist einfach die falsche Richtung. Das sollte bitte allen Leuten klar sein, dass das sind Statements, die sind einfach entweder Inkompetenz oder gelogen. Das kann und möchte ich nicht bewerten, aber eins von beiden muss es sein, weil es gibt keinen Weg, wie das sein kann.

Dirk:
[1:09:01] Ja, also man versucht das dann irgendwie, weil es so ungreifbar ist, sich da so ein bisschen aus der Verantwortung zu ziehen. Gut, jetzt KI wird die Klimakrise lösen, ist dann halt das Negativbeispiel, aber das dass in anderen Sachen auch alles, wo man irgendwie selber nicht weiter weiß, kann man dann darauf projizieren, auch in kleineren Sachen. Wie zum Beispiel, um wieder hier das Beispiel, ja, ich lasse KI lösen, wie mein Social-Media-Ding dann da nachher aussieht, anstatt sich selber hinzusetzen und sich zu überlegen. Also das hat halt verschiedene Abstufungen und keine davon ist irgendwie das, was man damit eigentlich erreichen möchte oder wo es um eine konkrete Lösung geht. Ja, absolut. Gut, wir haben ja eben schon mal, als du von Musk und Altman gesprochen hast, die OpenAI aus Angst vor Artificial General Intelligence gegründet haben. Aber genau diese Artificial General Intelligence, das ist ja, wo es gerade alles drauf hinläuft. Weil Chat-GPT ist ja im Grunde, so die Vorstufe ist es das schon, weil es ist ja nicht mehr irgendwie so ein sehr konkretes Ding. Es ist nicht AlphaGo, das kann nicht einen Text zu irgendwas schreiben oder auch das kann Go spielen. Das ist nicht General.

Lucas:
[1:10:25] Ja, genau. Und das ist halt wieder interessant, weil es gibt einfach irgendwie zwei verschiedene Sachen, die da irgendwie im Kopf passieren. Das eine ist halt, es gibt generelle und spezialisierte Systeme, also ein spezialisiertes System, was nur Go spielen kann. Und wenn du dem jetzt sagst, hier, spiel Schach, dann sagt er, kann ich nicht. Oder du hast halt ein System, was... Was angeblich alles kann. Und diese Large-Language-Models, also diese generativen Systeme, die wir halt aktuell als AI bezeichnen, die sind halt eher auf diesem generellen Punkt. Den kannst du halt irgendwie fragen, wie backe ich einen Kuchen? Oder du kannst denen halt sagen, hier, was ist der nächste Schachzug? Beides kannst du dieses Ding fragen.

Dirk:
[1:11:08] Und das geht, um das nochmal klarzumachen, weil das Training-Set eben Ballisten heißt, ne?

Lucas:
[1:11:13] Genau, exakt, ja. Ja, aber das ist nochmal was anderes als das, was diese Visionäre in großen Anführungsstrichen als Artificial General Intelligence bezeichnen. Weil da geht es darum, dass man eine Entität erschafft, die die menschliche Intelligenz erreicht und dann übertrifft. Da ist dann auch so ein bisschen die Theorie hinter, sobald das Ding menschliche Intelligenz erreicht, wird es dann in kürzester Zeit sie um ein Vielfaches übertreffen, weil es ja viel schneller dann sich selbst verbessern kann und dann wird es halt zum Terminator quasi. Und da muss man ganz klar sagen, das ist halt Bullshit. Also das ist wirklich Unsinn.

Dirk:
[1:11:57] Um es ganz klar zu sagen, das ist Bullshit.

Lucas:
[1:12:00] Das hat nichts mit dem zu tun, was da gerade passiert. Da draus wird nichts eine Superintelligenz oder sonst irgendwas. Das kann bestimmte Sachen machen, aber das heißt nicht, dass es auf einmal alle, dass es irgendwie die Weltherrschaft an sich reißt oder sonst irgendwas. was.

Dirk:
[1:12:19] Das gibt halt keine Schlussfolgerung. Genau.

Lucas:
[1:12:23] Also wir kommen nachher auch noch mal zum Thema Reasoning, weil das halt auch so interessant ist, was da so reininterpretiert wird, aber genau, es kann eigentlich, es kann keine Begründung finden. Es ist ein stochastisches Modell, was einfach nur wahrscheinlich die Wahrscheinlichkeit über einem riesen Datensatz berechnet, wie das, die meisten von diesen Texten schreiben würden. Das ist das, was das tut. Und das ist kein System, was sich nachher selbst verbessert und dann, weiß ich nicht, wie war das bei, Avengers, der dann da irgendwie sich in einen Roboter verwandelt. Genau. Ja, sowas ist einfach Quatsch und ganz wichtig.

Dirk:
[1:13:03] Und selbst bei Marvel war es außerirdische Energie, die dabei war. Ah ja, stimmt.

Lucas:
[1:13:07] Guter Punkt. Und da muss man ganz klar nochmal sagen, ich hatte ja vorher gesagt, OPI wurde von diesen Leuten gegründet, die angeblich so große Angst davor haben. Warum bauen sie es dann? Also das sollte man sich ja schon mal die Frage stellen. Und es ist natürlich auch einfach ein ganz geschickter Marketingzug. Wenn man den Leuten ganz große Angst davor macht, dann haben sie auch Angst davor, sich nicht damit zu beschäftigen und nicht das auszuprobieren. Oh Gott, was ist denn, wenn es anfängt, irgendwie Kinder zu fressen? Ich muss mich darauf vorbereiten. Und das ist das, was zum großen Teil dahintersteckt. Also es ist einfach ein Weg, die Leute daran interessiert zu halten. Und es ist auch ein ganz wichtiger Punkt dieser Vorstellung, dass es ein sich selbst verbessertes System ist, was immer, immer, immer besser wird und immer schneller, immer besser wird. Und das versuchen sie, einem immer wieder einzutrichtern und darin sind sie so effektiv, das den Leuten einzutrichtern, dass die Leute überzeugt davon sind, dass die Versionen immer besser werden zum Beispiel. Dabei gibt es große Zweifel daran, dass diese Systeme immer besser werden. Also als das ChatGPT 3.5 und dann 4 rauskam, haben viele Leute, die das benutzen, gesagt, boah, das ist so viel besser, also jeder, der 3.5 benutzt, das ist totaler Quatsch, ihr müsst 4 benutzen, das ist so viel besser. aus wissenschaftlicher Sicht gibt es.

Lucas:
[1:14:29] Einfach Bereiche, in denen erzeugt es bessere Ergebnisse und andere, in denen erzeugt es schlechtere Ergebnisse. Es ist eher gleichbleibend. Genauso kam jetzt irgendwie dieses Jahr von ChatGPT4 Turbo, kam ChatGPT4O, was weiß ich, raus.

Lucas:
[1:14:45] Auch hier wieder, die Papers sagen, die jetzt nicht von denen selbst geschrieben sind, das sollte man immer nochmal kurz dazu sagen, das ist so ein Klassiker in der IT, dann schreibt selber ein Paper darüber, wie geil man ist. Wenn man die jetzt mal rausnimmt, mit diesem Paper, sondern andere betrachtet. Da sind sehr viele dabei, die sagen, entweder ist es halt so ganz bisschen besser oder es ist eigentlich genauso oder teilweise sogar ist es schlechter geworden. Also es gibt Bereiche, in denen es schlechter geworden ist. Auch hierzu sind Sachen in den Shownotes verlinkt. Könnt ihr euch gerne mal anschauen. Einfach vergleichen, also wenn ihr das selbst benutzt und einfach das so empfindet, dass das so toll ist, vergleicht es einfach nochmal mit dem, was auch Leute, die das untersuchen, dabei rausfinden, ist es wirklich besser? Weil das ist, glaube ich, der Hauptgrund, warum es dieses Narrativ von dieser Superintelligenz gibt, um einen darauf zu primen, zu denken, okay, das wird immer besser, das wird immer toller und immer besser. Und das würde ich sehr stark in Zweifel ziehen und es gibt auch wenig Hinweise darauf, dass es wirklich immer besser wird, sondern von 1 zu 2 wurde es wirklich signifikant besser, von 2 zu 3, gibt es auch verschiedene Paper, die sagen, ja, das ist ein gutes Stück besser, aber seitdem nicht so wirklich. Und das sollte man zumindest mal im Blick behalten, dass das vielleicht ein Teil davon Marketing sein könnte.

Dirk:
[1:16:11] Gibt es eigentlich dann dazu Untersuchungen, warum das so ein Plateau erreicht? Liegt das einfach an der Art und Weise, wie das System funktioniert und funktionieren kann überhaupt?

Lucas:
[1:16:25] Ich weiß, dass ich dazu eins gelesen habe. Das habe ich jetzt nicht nochmal rausgesucht. Ich kann das versuchen, in den Shownotes nochmal nachzureichen. Es gibt zumindest Theorien dazu, aber es ist nicht ganz klar. Das ist so mein Stand, aber würde ich mich nicht darauf festlegen.

Dirk:
[1:16:42] Okay, alles klar.

Lucas:
[1:16:44] Genau.

Lucas:
[1:16:47] Und jetzt noch so eine kleine Seitennotiz, weil das einfach einem immer wieder begegnet. Und damit man das einfach schon mal gehört hat, viele der Leute, die in diesem Bereich arbeiten, die hängen so verschiedenen Philosophien an, die dadurch jetzt auch wieder bekannter geworden sind und sich so ein bisschen selbst verbreiten. Und die meisten davon gehen auf den Transhumanismus zurück. Das ist so eine Idee von 1940, also schon ein bisschen älter. Und davon gab es quasi jetzt mehrere Iterationen von dieser Idee. Und ja, was die eigentlich alle gemeinsam haben, diese, ich möchte es jetzt mal Philosophien nennen, ist, dass der Mensch durch die Verbindung mit der Maschine besser wird, also dass es quasi, der Mensch quasi sich selbst verbessern kann, und dass er dadurch Sachen erreicht, die bisher unerreichbar waren, wie zum Beispiel zu einer transgalaktischen Spezies zu werden, durch den Weltraum zu fliegen oder in eine Simulation sich hochzuladen und unsterblich zu werden.

Lucas:
[1:18:01] Das ist halt Science-Fiction. Aber das ist etwas, woran viele von den Leuten wie Sam Altman, Elon Musk und viele von den großen Köpfen von diesen, LLM-Bauern fest dran glauben.

Dirk:
[1:18:18] LLM nur ganz kurz sind diese Large-Language-Models wie HHPG.

Lucas:
[1:18:23] Genau. Ja, guter Punkt. Da sind die fest von überzeugt. Das heißt also, die sind sehr fest von Science-Fiction-Geschichten überzeugt, sag ich jetzt mal. Und das sehen sie so ein bisschen als ihre Motivation. Und das ist eine Motivation, die eine Verbindung ist zwischen Utopie und Dystopie. Also auch ganz klassisch das Science-Fiction-Material, wo dann halt, wenn wir es richtig machen, dann werden wir alle hochgeladen und werden unsterblich. Und wenn wir es falsch machen, dann wird die AI uns töten. Und mit diesen Science-Fiction-Geschichten, Geschichten halten sie die Leute quasi wie die Karotte, hinter der wir herlaufen. Wenn wir das schaffen, dann wird das alles super.

Lucas:
[1:19:00] Interessant dabei ist aber auch zu sagen, dass also der Transhumanismus, der wurde von Julian Huxley das erste Mal erfunden und das ist ein Eugeniker. Das heißt also, es gibt gewisse Verbindungen zwischen diesen Philosophien und Eugenik.

Lucas:
[1:19:16] Und ja, das möchte ich jetzt aber nicht weiter ausführen. Da gibt es einen sehr guten Talk zu von Tim Gaproot, den wir verlinken werden, und zu Transhumanismus und Effective Altruism, was auch so zu dieser, Philosophie-Feld dazu gehört, also Effective Altruism und Long-Termism sind so die neuesten.

Lucas:
[1:19:36] Generationen von dieser Philosophie, die hat Abigail Thorne super gut erklärt, kann ich wirklich jedem ans Herz legen, so ist sie in den Shownotes als Video, wo erklärt wird, warum das erstmal klug klingt und später stellt sich raus, dass das mit eine ziemlich furchtbare Idee ist. Und da, das einfach, wenn ihr da auch mal Interviews mit diesen Influencern in diesem Bereich hört, das kommt ganz oft als Idee vor, dass wir optimieren die Welt nicht für uns, sondern für die zukünftigen Menschen. Und die zukünftigen Menschen sind nicht die in 100 Jahren, sondern in 1000 Jahren oder in 2000 Jahren. Und das sind viel mehr als die Leute, die jetzt leben. Also ist das Leben jedes Menschen heute völlig egal, weil wenn es da für den Leuten in der Zukunft 5% besser geht, ist ja quasi das Gesamtgewinn an, wie gut es allen geht, viel größer. Weil das ist quasi Langzeitdenken. Und das ist halt so eine Idee, die dazu führt, dass aus irgendeinem komischen Grund alles an die Reichen geht und dann ist das Leiden der Armen gar nicht mehr so schlimm. Und dann kann man vielleicht auch verstehen, warum Milliardäre das so eine attraktive Philosophie finden, die man verfolgen sollte. Aber ja, ich würde behaupten, für Leute wie uns ist das keine Problematik. Gute Philosophie und wie gesagt, wenn ihr euch da mal ein bisschen beschäftigen wollt, haben wir ein bisschen Videomaterial in die Shownotes gelegt, für die Leute, die das interessiert.

Dirk:
[1:21:00] Genau, es ist wichtig, das zumindest jetzt hier so, am Rande zu nennen, weil das halt zeigt, dass dieses ganze Thema AI nicht so für sich alleine irgendwie steht, sondern dass da so andere Dinge noch dran hängen, die man vielleicht auf den ersten Blick nicht sieht. Ja, und die dann so ein bisschen einladen, also ja, nehmen so einen Überblick, wo AI herkommt, was darunter zu verstehen ist, was auch die Risiken dabei sind. Wir reden auch noch über nachher noch so ein paar Chancen vielleicht, wo das durchaus ja auch nützlich ist im Bestimmten. Wir hatten ja eben schon gesagt, wenn das ein sehr spezialisiertes Trainingsset ist, sehr kontrolliert eingesetzt wird und verantwortungsvoll damit umgegangen wird, dann hat das halt eben auch echt viel Positives dabei. Aber bei diesen anderen Sachen muss man schon mal auch immer da gucken, wo kommt das her, was steckt dahinter, was für Leute treiben das voran und was ist deren Motivation davon. Das ist, ja, muss man sich eben immer mal wieder vor Augen führen.

Lucas:
[1:22:01] Ja, das ist der eine Punkt und der andere Punkt ist halt auch, immer nochmal zwischendurch die Frage zu stellen, das, was ihr gerade mir beschreibt, ist das das, was das Ding kann oder das, was eure Science-Fiction-Idee davon ist, was es sein könnte. Und das immer klar nochmal auseinander zu dröseln, weil die Gegenwart nicht all das enthält, was da, erfunden wird. Und Sam Altman hat ja vor ein paar Monaten irgendwie gesagt, wie viel Milliarden oder Billionen, weiß ich nicht, irgendeine absurde Zahl von Dollarn, die er braucht, um die AGI zu bauen. Und dann sollten wir uns einfach nochmal darüber im Klaren sein, okay, das, also, Das sind viele Pokerchips, die wir da hinschieben, um zu würfeln, dass da was rauskommt, was wirklich ganz toll ist. Weil das hat nichts mit dem zu tun, was gerade da ist. Und das sollten wir immer nochmal ganz klar auseinanderhalten. Die Vision und die auch nochmal überprüfen, ob das wirklich die Vision ist, die wir auch haben wollen. Und das, was da wirklich da ist. Das finde ich ist ganz, ganz wichtig.

Die Gegenwart: Use Cases

Dirk:
[1:23:04] Sehr schön. Ja, was denn schon da ist. Lass uns nochmal über die konkreten Use Cases jetzt nochmal konkret reden, die es so aktuell gibt, die vermarktet werden, die benutzbar sind, die auch Vor- und Nachteile jeweils haben, die heute irgendwie auf AI-Technologie im weitesten Sinne irgendwie basieren. Jetzt haben wir eben ja schon Chat-Spielty genannt. Das ist eben, glaube ich, so, haben wahrscheinlich alle meisten schon von gehört. Ein textbasiertes Interface, da kannst du reinkippen, was du möchtest und dann fällt da irgendwas, eine Antwort raus. Genau. Und wirklich von bis. Dem kannst du Programmieraufgaben stellen, dem kannst du Logikrätsel geben, dem kannst du Schach spielen lassen, dem kannst du eine Brettspielrezension schreiben lassen und da kommt unterschiedlichste Dinge bei raus. Genau.

Lucas:
[1:23:54] Ja, und dieselben Systeme kannst du halt auch benutzen, um zu sagen, hey, fass mir das mal zusammen, diesen Text.

Dirk:
[1:24:02] Genau.

Lucas:
[1:24:02] Oder, ja, du hast schon gesagt, schreib mir diesen Text. Oder vielleicht auch, ich habe hier einen Text geschrieben, bitte gib mir Feedback dazu. Also so redigieren, würde ich das jetzt mal nennen, von Text. Das sind alles so Sachen, die man mit diesen Modellen machen kann. Und auch hier wieder interessant, also das kannst du eben mit solchen Sachen wie Chat-GPT oder GPT machen oder mit, einem von Google oder von wem auch immer, also die haben da alle ähnliche Feature-Sets. Interessant dabei ist, ich habe das irgendwie auch, wenn ich mit Leuten spreche, die begeisterter von dieser Technologie sind als ich, selbst da sind viele Leute dabei, die sagen, auch die kleineren Modelle erzeugen halt teilweise wirklich ähnlich gute oder teilweise sogar bessere Ergebnisse. Also auch da stellt sich eben die Frage, sind für diese Use Cases es dafür notwendig, so viele Daten zu sammeln und zu verarbeiten Oder würde das auch mit einem kleineren Datenset gehen?

Lucas:
[1:25:00] Aber das ist auf jeden Fall, sind das so Use Cases, für die sie viel benutzt werden. Bei dem Zusammenfassen muss man immer wieder aufpassen. Selbst wenn wir einen Menschen einen Text zusammenfassen lassen, kann es ja sein, dass da Sachen, die wir persönlich wichtig finden würden, fehlen. Also, ich weiß nicht, wer das kennt, es gibt dieses Blinkist, das ist so eine App, mit der kann man Zusammenfassung von Büchern hören, in, weiß ich nicht, zehn Minuten oder so. Es sollte jedem klar sein, dass nicht alle Informationen, die in dem Buch stehen, in einem zehn Minuten Audioschnipsel überbracht werden können. Also zusammenfassen heißt immer Informationsverlust, immer. Und darum seid sehr vorsichtig, wenn ihr euch auf irgendwelche Zusammenfassungen verlasst, weil es könnte sein, dass extrem wichtige Informationen fehlen und es kann auch sein, dass die Zusammenfassung nicht stimmt. Also da wäre ich besonders vorsichtig.

Dirk:
[1:25:56] Vor allen Dingen gerade, ich kann mich so vage erinnern, ich hatte das irgendwann mal im Studium, hatten wir ein Seminar zum Thema Zusammenfassung und das ist nur angeschnitten worden und das ist also allein linguistisch gar kein so einfaches, also ein sehr komplexes Problem, Dinge zusammenzufassen und nach welchen Kriterien man das überhaupt tun könnte. Und ja, das dann so einem Ding zu überlassen, dass das ganze Internet gelesen hat und dann statistisch, das wird schon eine gute Zusammenfassung sein. Du hattest es ja gerade gesagt, da gibt es dann so, also auch zum Beispiel Transkription ist ja, so eine Sache, die davon gemacht wird, zum Beispiel die Transkription, die ihr bei der BGT bekommt, jede Folge hat seit vielen, vielen Folgen ja die Transkription verlinkt.

Dirk:
[1:26:50] Meine Frau ist Journalistin, die hatte auch seit Jahren, musste die Texte nicht mehr selber transkribieren, sondern hat da Software für und das ist alles nicht Chat-GPT, also das ging auch vorher schon, das sind dann eben sehr, sehr geschulte Systeme und sogar noch davor, wie hieß das, Dragon Speak, so aus dem Anwaltskontext, wo teure Lizenzen gekauft worden sind, wo man ja ganze Protokolle da reingekippt hat, die aufgenommen worden sind. Einfach ins Diktiergerät gesprochen und dann wurden die eben verschriftlicht. Also das gibt es schon ganz, ganz lange und so richtig gibt es keinen Grund, warum man die Sachen nicht einfach weiter benutzt. Und zum Beispiel das für die BGT, das ist also die kurze Anekdote wieder, also intern nutzen wir den Dienst auf Phonic. Das ist so ein Post-Processing-Dienst, der tut Dinge mit dem Audio, dann wird das das Audio toll und die haben halt angeschlossen eine private Whisper-Instanz und Whisper ist eben ein System, um Transkription zu machen, aber spezialisiert auf Transkription. Das kann auch sonst nichts.

Dirk:
[1:28:00] Und das macht es halt auch ganz gut, aber selbst das, das tue ich jetzt nicht, aber meine Frau zum Beispiel, die muss trotzdem die Texte dann komplett durchgehen, weil da sind oft genug Fehler drin, sowohl Übersetzungsfehler als auch Transkriptionsfehler, wo dann so Feinheiten übrig übrig geblieben sind, die sie einfach manuell nachbessern muss. Und eine Kollegin von ihr, die ist Übersetzerin zusätzlich, ist Journalistin, und die hat neulich erzählt, also so im Übersetzerkreis, viele werben da nicht aktiv für, weil das ein doofer Job ist, das zu machen, aber die Kontrolle maschinenübersetzter Texte ist halt einfach eine Aufgabe von Übersetzern. Die tun das halt, weil es eben nicht hinreicht. Oder ausreichend gut ist.

Lucas:
[1:28:47] Ja, nur kurz als Nebeninformation, also dieses Whisper, von dem du sprichst, das ist auch von OpenAI, also das ist dieselbe Firma, die das gebaut hat, wie die, die ChatGPT baut. Genau, und die hat halt dieses Modell gebaut, was eben Texte zuhören kann. Und auch da, also ich, bei einem anderen Podcast benutzen die das auch zum Transkribieren und die haben gesagt, die müssten das immer gegenlesen, weil da teilweise Sätze drinstehen, die im Podcast nie gesagt wurden. Also da sind einfach Sätze auf einmal erscheinend in dem Transkript, die, im Audio nicht drin sind, die sind einfach dazu gebastelt und deswegen, also man darf sich halt auf solche Sachen nicht verlassen.

Lucas:
[1:29:29] Ich persönlich würde behaupten, also Zusammenfassungen sehr vorsichtig mit sein, weil das kann wirklich viele Informationen verloren gehen, Text generieren, ganz wichtig und weil das, also das wollte ich auf jeden Fall auch nochmal als wichtiges Takeaway, mittlerweile habe ich mehrfach gehört, dass Leute sagen, ich habe das mit ChatGPT recherchiert. Man kann mit JetGPT nicht recherchieren. Das ist nicht möglich. Man kann JetGPT einen Text generieren lassen, aber das ist keine Recherche. Das hat nichts mit Recherche zu tun.

Lucas:
[1:30:00] Man hat einen Text eingegeben und der wurde dadurch gewurstet und es wurde ein neuer Text erzeugt. Aber das heißt nicht, dass du recherchiert hast. Ganz, ganz wichtig. Deswegen auch hier wieder vorsichtig. Ihr könnt natürlich, ich sag mal, du möchtest brainstormen für irgendwas und dein Saft ist leer der sagt, ich habe keine Ahnung. Generieren wir mal bitte drei coole Titel für meinen Blogpost. Von mir aus, ja. Das ist halt was anderes, als zu sagen, ich habe jetzt hier, ich möchte rausfinden, wie viele Krebsarten gibt es. Ich recherchiere das mal schnell mit ChatGPT. Das ist Bullshit und da müssen wir halt aufpassen, weil da kann halt einfach vollkommen falsche Informationen rauskommen. Du kannst nicht sagen, Quelle, ich habe das mit ChatGPT generiert. Das ist nicht richtig. Das heißt also, passt gut auf, denkt nochmal drüber nach, was tut dieses Ding und dann überlegt, ob das zu dem passt, was ihr da tut. Es gibt wieder Teile, wo ist das okay und andere Teile, da ist es nicht okay, den Text zu generieren. Genauso beim Übersetzen, Es gibt Systeme, die basieren auf diesen Technologien wie DeepL, die sehr gute Leistungen erzeugen, aber auch die machen immer noch Fehler. Kann man jetzt dafür ChatGPT benutzen? Habe ich sehr gemischte Ergebnisse zugehört.

Lucas:
[1:31:14] Passt damit einfach auf. Also das ist eben nicht so einfach. Ich finde, Redigieren ist tatsächlich ein Punkt, wo es vielen Leuten ein bisschen hilft. Sie sagen halt hier, mach mal den Text, bügel den mal so ein bisschen glatt und viele finden ihren Text danach ein bisschen schöner. Aber auch da passt wieder auf, dass dabei nicht so ein uniformer Blob rausfällt, der nachher überhaupt nicht mehr so euer Stil ist, weil das halt einfach durchgebügelt wurde, jetzt ist es weg. Und denkt immer darüber nach, wenn ihr das in einem professionellen Kontext macht, könnt ihr jemanden dafür bezahlen, der das macht für mich, der dafür Geld bekommt und der das vielleicht besser macht. Macht, wenn ihr das, weiß ich nicht, der BGT-Podcast, der hat nicht irgendwie ein magisches Sparschwein, wo Geld drin ist, um Transkripte von einem professionellen, Transkriptions-Service erzeugen zu lassen. Das heißt, da ist ja wirklich nur die Option, entweder es gibt gar kein Transkript oder es gibt ein maschinengeneriertes Transkript, andere Optionen gibt es nicht und dann ist es eine Abwägung für sich, zu sagen, hey, ich finde, das ist besser als nichts und, dann ist das eine andere Entscheidung als, ich bin ein Unternehmen und ich könnte auch jemanden dafür bezahlen, das zu tun. Weil wir haben Geld und dann machen wir das einfach. Also auch da immer noch mal abwägen.

Dirk:
[1:32:24] Genau.

Lucas:
[1:32:26] Und einfach noch mal abwägen. Es sind Use Cases, aber das heißt nicht, dass, also auch hier wieder, es gibt gute Verwendung dafür und weniger gute Verwendung. Und einfach noch mal, um das klarzumachen.

Dirk:
[1:32:39] Eine Sache vielleicht noch so zur Einordnung. Wir haben ja die ganze Zeit über Textgenerierung gesprochen. Diese diversen Bild- und Videogeneratoren, basieren die auf demselben System unten drunter eigentlich?

Lucas:
[1:32:52] Genau, also das sind auch eben, natürlich nicht alle, kann man natürlich nicht immer alle sagen, aber viele von den modernen basieren eben auch auf Deep Learning mit dieser selben Technologie, die da hinterstrickt, diesen Transformern. Ja, das heißt also, wenn ich zum Beispiel, gibt es eine Anwendung, die kann deine Stimme kopieren, also so Voice-Cloning, die, ja, macht das eben, indem sie ganz viele Schnipsel hat und dann halt überlegt, was ist der nächste Ton, der dazu passt, dass dann halt so gesprochen wird. Und da gibt es tatsächlich unfassbar gute, die hören kurzen Text von dir und dann klingt das wirklich so wie du, was schon echt komisch ist. Aber ja, solche Sachen gibt es halt auch. Das heißt also, dieses verschiedenen Medien, also Ton, Text, Video, gibt es halt alles und das basiert auf denselben Sachen. Aber ich würde behaupten, die sind verschieden weit. Also die Texte sind halt überzeugender als die Bilder. Die Bilder sind überzeugender als die Videos. Und weil das halt einfach dann nochmal einfach viel mehr Daten sind, die da plausibel erzeugt werden müssen und dann vorher auch gelernt werden müssen. Genau. Und Audio ist, glaube ich. Irgendwie eher noch näher an dem Text als an den Bildern, würde ich jetzt mal sagen. Aber das ist jetzt nur so mein Bauchgefühl.

Dirk:
[1:34:20] Dann die Auflösung, falls ihr das noch nicht selber euch gedacht habt. Der Schnipsel in der letzten Folge ist jeweils generiert worden.

Lucas:
[1:34:29] Ja, genau. Also das geht halt und das klingt halt auch relativ gut in vielen von diesen Modellen. Aber auch da, also da ist bei mir so ein bisschen die Frage, was sind denn gute Use Cases dafür? Ich kann mir in Accessibility-Bereichen was vorstellen, jemand, der keine Stimme hat und möchte aber anrufen können, könnte ich mir vorstellen, dass das da ein absoluter Game Changer für diese Person ist.

Dirk:
[1:34:53] Genau, es gibt sicherlich da interessante, also zum Beispiel das, was ich für das verwendet habe, soweit ich das da gesehen habe, den Link kann ich auch nochmal raussuchen, das sind dann stellenweise professionelle Sprecher, sprechen diese Sets, also das Trainingset ein und das ist dann quasi die Stimme von einem real existierenden Menschen mit unter, dem du dann alles an Text eintippst und dann liest er das halt entsprechend vor. Und ein Use Case, den ich da oft für gefunden habe, ist eben so Schulungsdaten. Du kannst halt den Schulungstext schreibst du und das Video dazu und die Audiospur wird generiert und du musst es nicht neu produzieren, sondern du brauchst nur den Schulungstext anpassen und kriegst das dann neu. Das ist so einer der Use Cases, wo ich dachte, okay, das kann ich nachvollziehen, dass das sinnvoll ist und dass die Aktualisierungsrate von so Schulungsinformationen dem zugutekommen könnte.

Lucas:
[1:35:54] Ja, aber auch da muss man auch wieder klar sagen, das ist wieder nichts Neues. Also wir haben schon lange Text-to-Speech-Engines, das gibt es schon viele, viele Jahrzehnte.

Dirk:
[1:36:07] Auch da, das Intro der BGT ist auch Text-to-Speech. Genau.

Lucas:
[1:36:12] Und die sind natürlich vor 30 Jahren anders gewesen als heute. Aber auch da, weil ich finde, es passiert manchmal so ein bisschen so dieses Accessibility-Washing. Da wird halt gesagt, so AI-Technologien, boah, die sind so super für Leute, die irgendeine Einschränkung haben und dann ist jetzt alles gelöst. Da muss man halt echt aufpassen. Also ein Bekannter von mir, der blind ist, der benutzt Text-to-Speech jeden Tag und benutzt das halt, um sich alles vorlesen zu lassen. Und der sagt, für ihn ist es gar nicht gut, wenn das eine natürliche Stimme ist. Für ihn ist die Roboterstimme besser, weil die kann er auf eine höhere Geschwindigkeit drehen und schneller hören.

Lucas:
[1:36:55] Versteht die besser als diese super natürliche Stimme, die jetzt vielleicht bei was Neuem rauskommt. Und dann wird halt so getan, als wäre jetzt diese natürliche Stimme auf einmal diese Revolution. Und jetzt freuen sich ja alle Leute, die blind sind, weil jetzt haben sie endlich eine gute Stimme. Aber zumindest, also diese Person sagt, also ich brauche das nicht. Also mein altes System funktioniert für meinen Use Case. Also er hört ja auf zehnfacher Geschwindigkeit. Funktioniert für mich viel, viel besser als dieses neue System, was besser klingt. Also auch da immer ein bisschen aufpassen, dass man sich da nicht in eine Falle locken lässt, dass das jetzt in Wirklichkeit diese Probleme löst. Aber es gibt bestimmt auch wieder gute Use Cases dafür. Aber auch da wieder, wenn ihr euch vorstellt, ihr habt ein Hörspiel von einem tollen Buch. Ich bin mir ziemlich sicher, wenn ihr einen guten Menschen habt, der das vorträgt, wird das viel toller sein, als dass ein automatisch generierter, Audiobook von eurem Buch sein könnte.

Dirk:
[1:37:50] Ganz sicher. Also alle, die das nicht nachvollziehen können, sollten vielleicht mal sich Harry Potter von Rufus Beck vorlesen lassen. Auch nur Auszüge davon.

Dirk:
[1:38:02] Weil da geht es eben nicht nur um die Reproduktion und wie könnte denn jetzt das nächste Wort betont werden. Und das ist ja selbst in dem, als ich das jetzt, diesen Schnipsel für die letzte Folge da gemacht habe, der kriegt das schon hin, wenn das ein Ausrufezeichen ist, dann betonte das anders und so. Aber dieses, okay, das Gefühl dahinter, was da vielleicht in dieser Szene ist, die da beschrieben wird, das ist dann schon immer nochmal auf was anderes. Und wo setzt du wirklich Pausen? Und auch eben das Beispiel von einem Schulungstext, gerade so Sprechpausen, andere Betonungen, die können sehr, sehr relevant sein, um das den Zuhörenden nochmal anders näher zu bringen. Das ist derselbe Satz, auf drei unterschiedliche Arten und Beweisen vorgetragen, kann ganz unterschiedlich bei den Rezeptienten dann ankommen. Ja, und deswegen, es gibt für vieles sicherlich nachvollziehbare Gründe und da wollen wir auch gar nicht jetzt irgendwie, also das hatten wir am Anfang gesagt, das soll es gar nicht jetzt darum geben, dass wir jetzt sagen, okay, da aber da wäre es total toll. Da gibt es sicherlich genügend Fälle, wo es echt praktisch ist.

Dirk:
[1:39:13] Ein großer Unterschied ist, muss man dafür dieses riesige Datenset nehmen, Was, da kommen wir vielleicht auch noch gleich kurz zu, für verschiedene andere Probleme hat, weil die sind, glaube ich, wichtig zu beleuchten. So rein, so Intellectual Property, dann Energieaspekte, genau, oder ob es nicht ein sehr trainierteres, sehr kleiner trainierteres Datenset auch tut, um nachvollziehbar bestimmte Sachen zu verbessern.

Lucas:
[1:39:42] Genau. Und deswegen, das ist eben das, was gerade die IT sehr gut kann, Lösungen für Probleme zu erfinden, wo die das Problem noch gar nicht kannten. Das Problem sollte zuerst da sein und dann guckt mal, ob die Lösung tatsächlich das ist oder ob es nicht eine andere Lösung gibt, die vielleicht andere Vorteile hat. Aber grundsätzlich gibt es diese Use Cases und es gibt auch da welche, die auf LLMs basieren, es gibt auch welche, die auf demselben Technologie basieren, aber auf kleineren Datensets und es gibt auch noch ganz andere Ansätze, die einfach dasselbe erreichen. Ich würde behaupten, von all den Sachen, die wir gerade genannt haben, ist keiner wirklich neu. Alles davon gab es auch vor vielen Jahren schon. Also wäre zum Beispiel Grammarly gab es auch schon vor, ich glaube, mindestens mal acht Jahren, dass einem den Text irgendwie redigiert hat.

Lucas:
[1:40:32] Solche Sachen sind nicht neu. Es ist halt jetzt einfach eine neue Technologie und dann müssen wir wirklich nochmal ganz genau drüber nachdenken, ist das jetzt besser als die Lösung, die wir davor hatten und in welchen Fällen ist es besser, in welchen ist es schlechter und was sind die Vor- und Nachteile und nicht einfach nur das kann ich dafür benutzen, jetzt ist es einfach die Lösung für alles und jetzt ist alles cool. Das, genau. Ja, und dann, um das noch abzuschließen, Use Cases, also was ganz viel auch gemacht wird, ist halt Bilderkennung, also zu sagen, hier auf diesem Bild ist da, was ist das für ein Hund oder vielleicht habt ihr das auch in eurer Foto-App auf eurem Telefon, dass dann die Personen, die ihr kennt, wiedererkannt werden, dann kannst du nach allen Bildern von Dirk suchen oder sowas das wäre jetzt so Bildklassifizierung, das ist so ein ganz typischer Use Case, genauso sowas wie, selbstfahrende Autos benutzen das dann halt eben um zu gucken, muss ich bremsen, ist das ein Stoppschild und so weiter. Und da gibt es natürlich auch wieder verschiedene Formen von. Also viele Autos heute können halt sagen, hey, ich habe hier gerade ein 50er-Schild gesehen, also zeige ich dir an, dass du 50 fahren sollst. Sowas wäre jetzt auch eine Bilderkennung. Genau, da gibt es einfach auch verschiedene Artikel.

Lucas:
[1:41:46] Abstufungen von, klar würde ich da auch nochmal sagen, dass da viel versprochen wird, was so Self-Driving angeht und nicht ganz so viel gehalten, also ja, das ist glaube ich auch noch so eine, eher eine Science-Fiction, als eine tatsächlich heute existierende Technologie, aber das ist zumindest was, was darauf basieren könnte. Genau, und das letzte Beispiel, was ich noch nennen wollte, wäre Bildgenerierung, das ist ja jetzt mittlerweile quasi schon so ein Running Gag, man kriegt von allem irgendwie Bilder generiert und jeder dritte Blogpost, den man liest, hat obendrüber irgendwie so ein lustiges Bild und was weiß ich. Genau, das sind halt Bildgenerierungssysteme. Das wären so die üblichen Use Cases, würde ich jetzt sagen. Und da, wenn man das jetzt nochmal zusammenfasst, würde ich zum einen behaupten, das ist nicht menschliche Intelligenz, sondern das ist irgendwie was anderes. Das sind halt verschiedene Use Cases, aber ja, wird jetzt, glaube ich, nicht Skynet. Und zum anderen kann man es, glaube ich, grob in zwei Sachen aufteilen. Das eine ist Mustererkennung und das andere ist Mustererzeugung. Also man erkennt wiederkehrende Muster in einem Datenset oder man erzeugt etwas, was diesem Muster nachher wieder entspricht. Das sind so das, was alle diese Sachen, die ich gerade genannt habe, eigentlich gemeinsam haben. Genau. Und dann halt da in verschiedenen Bereichen benutzt werden können. Und fast alles davon, vielleicht außer Textgenerierung, aber auch da gab es schon andere Versuche, die waren wahrscheinlich wirklich schlechter.

Lucas:
[1:43:12] Gab es vorher auch schon alternative Technologien zu und genau, da müssen wir einfach nochmal scharf drauf gucken, ist das Ding wirklich besser als das, was wir da jetzt haben.

Der Eliza Effekt

Dirk:
[1:43:23] Jetzt sind wir ja speziell über die Textgenerierung oder diese textbasierten Systeme, weil da ja die direkte Kommunikation mit dem System quasi im Vordergrund steht und du ja so einen Dialog mit ChatGPT quasi führst. Da können wir ja vielleicht nochmal diesen ELISA-Effekt aufgreifen, wie das so rüberkommt.

Lucas:
[1:43:42] Ja, also das ist eben das, was so interessant ist. Also so viele Berichte von Leuten, die sagen so, hey, das ist doch mehr als nur ein Textgenerierung, das ist intelligent und das, was ich super oft höre und das, was mir immer so ein bisschen so ein, ja, so unangenehmes Gefühl gibt, ist, wenn Leute dann wirklich anfangen, das zu personifizieren. Also dann zu sagen, er hat mir das gesagt oder ich frage mal Chat-GPT und dann, oh, er hat gesagt und dann denkst du so, okay, also dieses Personifizieren, das haben wir Menschen schon echt gut drauf, das machen wir auch schon lange, personifizieren alles und das ist bei … Das kennen.

Dirk:
[1:44:24] Wir ja auch schon vor Chat-GPT, wenn ich meine, wie Alexa und … Stimmt da auch.

Lucas:
[1:44:28] Ja.

Dirk:
[1:44:29] Das ist ja nun auch … Genau.

Lucas:
[1:44:31] Und es wird halt dann Dinge reininterpretiert in dieses Ding, was Text generiert, die einfach nicht da sind. Und der ELISA-Effekt ist jetzt halt auf 180 gedreht und Leute entwickeln Vertrauen zu dem System oder vertrauen dem vielleicht auch Gedanken an und kriegen dann halt irgendwie einen Rat oder was. Da gab es auch verschiedene Artikel zu, dass Kinder anfangen, irgendwie Chats zu haben mit drei verschiedenen Chat-GPTs, mit denen sie jetzt einen Chatroom haben und so. Das, ja, ja.

Lucas:
[1:45:10] Und solange allen Menschen, die daran verteidigen, klar ist, dass das Bots sind und dass sie das auch weiterhin wissen, dass das Bots sind, ist das irgendwie okay. Aber es geht sehr schnell in eine Richtung, wo das auf einen Bereich kommt, wo das nicht mehr der Fall ist. Wo halt wirklich die Grenze verwischt und die Leute wirklich anfangen zu denken, dass das ein Mensch ist. Und interessant ist ja auch diese ganze Geschichte mit Her. Eigentlich ist Her ja eine Dystopie, würde ich jetzt mal behaupten, für Sam Altman, den Chef von OpenAI. ist das irgendwie eine erstrebenswerte Zukunftsvision und er hat es ja versucht, das zu erreichen.

Lucas:
[1:45:54] Und da ist halt auch ein ganz interessanter Punkt, da gibt es jetzt noch keine wissenschaftlichen Erkenntnisse zu, aber es gibt zumindest erste Hinweise darauf, dass eine der Gründe, warum die Leute das GPT-4o so super finden und denken, dass es besser ist, ist, dass es jetzt halt antwortet in Sprache und die Sprache sehr selbstüberzeugt klingt. Und da gab es halt auch mehrere Leute, die analysiert haben, auch die Demos analysiert haben, ist alles auch in den Shownotes, wo halt eben einfach erstaunlich ist, weil die klingt so überzeugend, sie kann sich super, also die Ausdrucksstärke von diesem LLM ist halt wirklich hoch, es klingt sehr sophisticated und dann hat es auch noch eine sehr überzeugende Stimme mit viel, ja einfach Selbstsicherheit, die das, diese Stimme auslöst.

Dirk:
[1:46:43] Dann wird das schon stimmen.

Lucas:
[1:46:44] Und dann wird das halt schon stimmen. Und da müssen wir halt echt aufpassen. Also gerade diese synthetischen Stimmen machen das halt den Leise-Effekt, noch stärker, weil jetzt haben wir nicht nur etwas, was menschlich sich liest, sondern auch noch etwas, was sich menschlich anhört und dann kommt da halt einfach eine Verbindung raus, wo es sehr schnell ungesund werden kann.

Dirk:
[1:47:08] Und man hat halt nicht, die klingen halt nicht wie Hell 9000, sondern die wissen ganz genau, wie sie sie klingen lassen müssen, damit sie angenehm klingen und einladend, vertrauenserweckend und dergleichen.

Lucas:
[1:47:23] Und das ist wirklich eine Bitte, die ich wirklich an jeden habe. Versucht nicht immer das zu personifizieren, weil das macht den Effekt noch viel stärker und dann fangt ihr noch viel mehr an, diesem Ding zu vertrauen, dass einfach nicht eine Intelligenz ist, sondern ein Generator. Also das einfach immer nochmal im Kopf behalten. Und ich finde es auch wichtig, darauf nochmal hinzuweisen, wir haben alle diesen starken Bias dazu, dass wir denken, wenn sich etwas was gut und gewählt ausdrücken kann, dann ist es intelligent. Da ist ganz viel Rassismus und Klassismus und Ableismus drin, der da so ganz fest in uns drin steckt. Und diese Biases sollten wir nochmal in uns selbst reflektieren, bevor wir diesem Ding zu viel Vertrauen schenken. Und dann auch selbst vielleicht nochmal darüber nachdenken, welche Rolle wir selbst Sprache und der Fähigkeit, sich gut auszudrücken, zuordnen. Ich finde, das ist einfach eine Aufgabe, die jeder für sich einfach nochmal mitnehmen kann, unabhängig von den LLMs, wie man damit umgeht und was einfach der Kopf dabei denkt und das einfach nochmal zu hinterfragen, wenn man jemanden sprechen hört, was man da rein interpretiert an Intelligenz und so weiter.

Lucas:
[1:48:41] Genau. Und als anderer Teil davon, der in einem Paper, das ich noch gefunden hatte, interessant ist, es gibt zumindest erste Erkenntnisse, dass wenn zum Beispiel so ein System ein bisschen verspielter, nicht so ernst klingt, dass es dann halt auch wieder das Vertrauen nochmal erhöhen kann. Kann, weil GPT-4-O fängt jetzt an zu kichern im Text, also kichert dann in seinem Output und das könnte halt dazu führen, dass Leute dem auch nochmal mehr Menschlichkeit zuordnen, als sie das bei dem, professionelleren Text machen. Also auch hier gibt es wieder zwei Wege, also entweder noch mehr Selbstsicherheit, wie die Stimme das eben sehr gut hinbekommt, oder halt eben noch ein bisschen mehr dieses chatty, alberne, wodurch es dann halt einfach nochmal ein bisschen vertrauter und so weiter klingt. Und auch immer daran denken, alles, was ihr mit diesem Ding teilt, teilt ihr mit dieser riesigen Firma und wird als Dateninput für die nächsten Sachen verwendet. Also vertraut dem vielleicht nicht eure tiefsten Geheimnisse an, weil das vertraut ihr nämlich gerade einer riesigen Firma an, die damit ihr Geld verdient, Informationen zu horten. Also auch da gut, gut aufpassen. Finde ich da auch nochmal ein wichtiges Takeaway.

Dirk:
[1:49:58] Ja, und das ist auf jeden Fall nochmal ein anderes Ich teile Daten mit einer großen Firma als ein Kommentar bei Instagram oder wenn wir über WhatsApp chatten oder dergleichen. Auch da, also klar, bei Social Media ist sowieso, ist der Algorithmus einfach daran interessiert, diese Dinge auszuwerten und auch bei WhatsApp und ja, das ist Ende zu Ende verschlüsselt. Jetzt überlegt euch mal, wo die Schlüssel herkommen. Aber da ist das, also da ist das, also der Nutzen ist einfach nicht in dem Maße da, diese Daten so auszuwerten. Klar, die wollen irgendwas damit auch tun, die wollen auch damit ihr Geld verdienen, aber wenn ihr das mit Chachibiti teilt, wie Lukas sagt, der inhärente Grund oder Benefit ist, das Ding damit zu füttern. Und ja, das läuft unweigerlich da ein, weil das muss es einfach tun. Es muss damit gefüttert werden.

Lucas:
[1:50:56] Ja, absolut. Genau.

Dirk:
[1:50:58] Sonst hat es ja gar keine Chance, weiter zu wachsen. Also, das Internet hat es jetzt durchgelesen. Wenn es das jetzt nochmal durchliest, dann werden zunehmend Inhalte von sich selber darin auftauchen. Also ist das System darauf angewiesen, dass die Userinnen es füttern mit Dingen und da weiter Input rauszieht. Ja, was auch immer daraus wird. Ja. Weil wenn wir wieder bei Wahrscheinlichkeit sind, die Wahrscheinlichkeit, dass Lukas und ich das selber da rein tippern, ist eigentlich nicht ganz so hoch. Aber das ist ein sehr, sehr wichtiger Punkt, Lukas.

Lucas:
[1:51:30] Genau. Dann ein weiterer Punkt für mich, der noch auf so Dinge, die es zu beachten gibt in dem aktuellen Hype, ist das, was jetzt die Security and Exchange Commission in den USA AI-Washing nennt. Das sind Produkte, die behaupten, AI zu sein, aber in Wirklichkeit ist es gar keine AI.

Dirk:
[1:51:55] Nein, das gibt's!

Lucas:
[1:51:56] Ja, das gibt es. Verrückt, ne? Es gibt ja diese Geschichte von dem Mechanical Turk. Das war ja so ein Schachspielautomat und in Wirklichkeit saß eine Person drin und die hat das gesteuert. Ich weiß gar nicht, ob das stimmt, aber es ist halt so eine uralte Geschichte. Es gibt ja auch Mechanical Turk von Amazon, was dann irgendwie schon grotesk ist, dass sie es so benannt haben. Ist egal. Auf jeden Fall, dieses Muster ist halt wieder da und alle die Firmen, die jetzt gerade da groß dabei sind, sind alle schon damit aufgeflogen und da würde ich einfach nochmal darauf hinweisen, wer einmal lügt, dem glaubt man nicht oder so ähnlich heißt das glaube ich, dass man, wenn man eine Firma hat, die schon mehrfach gelogen hat, sollte man vielleicht auch nochmal die weiteren Aussagen dieser Firma eventuell etwas kritischer sehen. Also ich habe jetzt für die Shownotes einfach nochmal ein paar schöne Dinge der letzten Jahre aufgelistet, wo sie gelogen haben, wo Sachen einfach gefakt waren. Von Self-Driving von Tesla in 2016, das einfach vollständig gefakt war, bis von Google sowohl die Duplex-Demo in 2018 als auch die Gemini-Demo in 2023 waren gefakt. GM hat selbst 2023 noch ferngesteuerte Autos angekündigt als selbstfahrend, aber in Wirklichkeit wurde jedes Auto von anderthalb Personen ferngesteuert.

Dirk:
[1:53:24] Das ist nicht nur eine Verletzung.

Lucas:
[1:53:27] Ja, oder auch bekannter Fall ist ja Amazon Fresh, das ist ja dieses Konzept, dass du einen Supermarkt hast ohne Verkäufer und du kannst einfach reinlaufen, Sachen aus dem Regal nehmen und wieder rausgehen und dann wird das einfach von deinem Konto abgebucht und fertig. In Wirklichkeit saßen da Leute in Indien vor der Kamera und haben gezählt und dir nachher die Rechnung geschickt. Da war gar keine AI am Start. Die OpenAI hat ein Video-Generierungstool gebaut, das Zora heißt, dieses Jahr vorgestellt, hat sich herausgestellt, dass mindestens eines der Headliner-Features, das mit diesen komischen Ballonköpfen vollständig von Menschen erzeugt wurde und nicht von der AI. Der Rabbit R1 und der Human AI Pin, die sind ja quasi schon Lachnummern weil sie so gefloppt sind, weil das so viel gelogen wurde in den Demos und nachher die Reviews furchtbar waren, also es passiert immer wieder und bei all diesen Firmen, also es gibt keine, die das nicht gemacht hat, Microsoft hat es gemacht Google hat es gemacht, Tesla, OpenAI, all davon haben Fake-Demos rausgegeben Und darüber sollten wir uns immer bewusst sein, wenn wir diese Demos sehen. Und dann, wenn wir die nächste Demo sehen, auch nochmal uns daran erinnern, oh, die haben schon mal gelogen. Vielleicht ist das auch nicht wahr. Und dann erstmal warten, bis das jemand wirklich ausprobiert und auch uns sagt, ja, okay, das funktioniert auch, was da erzählt wird.

Lucas:
[1:54:51] Genau. Und in diesem Bereich gibt es dann halt auch noch so Sachen wie dieses Google-AI-Ding, was halt irgendwie über Suchergebnissen mittlerweile da irgendwie eine Zusammenfassung oder eine AI-Antwort auf deine Suchanfrage gibt. Gibt, da kamen ja absurdeste Sachen raus, wie wenn, was muss ich machen, wenn, der Belag auf meiner Pizza nicht liegen bleibt, ja bitte mit Sekundenkleber festkleben und da finde ich, ist auch nochmal ein wichtiges Learning, einfach nochmal, um das mitzunehmen, was passiert da? Das Internet, da gibt es viel Satire, auf Deutsch gibt es den Postillon, auf Englisch gibt es The Onion, das ist quasi das englische Pordor dazu, die sind auch im Trainingsset, das heißt also, die Sachen werden auch mit, absichtlich Falschinformationen gefüttert, die einfach als Witz gemeint sind quasi und die landen auch da drin oder Memes.

Dirk:
[1:55:46] Und AI hat keine Chance, das auseinanderzuhalten.

Lucas:
[1:55:49] Genau, absolut. Und das sollte man sich auch mal bewusst machen und ich finde, da ist auch wieder so ein wichtiger Punkt. Eine Sache, die uns allen verloren geht, wenn wir diese Information aus einem generierten Text rausholen, ist die Quellenangabe. Wenn ich lese einen Artikel auf spiegel.de, lese ich den anders als auf postillon.de, würde ich jetzt mal behaupten, Heißt nicht, wir dürfen dem Spiegel einfach zu 100% vertrauen, das ist klar. Aber es ist ein anderes, ein anderer Modus, in dem ich diesen Text lese, als wenn ich den auf Postillon lese. Das sollte uns immer bewusst sein. Und dass diese Informationen gehen verloren in diesen Systemen, das geben die nicht wieder. Was für ein Stil ist das jetzt gerade? Und auch super interessant fand ich die Geschichte von Wired.

Lucas:
[1:56:31] Perplexity ist auch eine von diesen AI-Firmen, Also da hat Wired eben untersagt, dass die ihre Texte lesen, haben dann herausgefunden, dass sie es trotzdem tun, dann haben sie es wirklich gesperrt und die haben wirklich nicht mehr gelesen. Dann haben sie als Test einen neuen Artikel geschrieben, der eigentlich leer war und denen haben sie dann perplexity gesagt, bitte fass mir den Artikel zusammen und dann hat es sich einfach vollständig ein Text ausgedacht, weil der Text war nämlich leer. Also die hat Nanua hingeschrieben, I am a reporter with Wyatt, das war der gesamte Artikel, mehr stand nicht drin, und haben dann gesagt, fass ihn zusammen und dann hat das das zusammengefasst mit einer Geschichte über Amelia, ein Mädchen, das einem Pfad von leuchtenden Pilzen folgt in einem magischen Wald, der flüstert. Also das ist jetzt nicht übertrieben, das ist das, was da passiert ist. Das heißt also, wenn die Informationen fehlen, werden sie halt generiert. Und dann kommt halt voll Schnicker-Unsinn raus. Das einfach nochmal, um klarzumachen.

Lucas:
[1:57:34] Es wird gelogen auf der einen Seite und es wird auch ganz stark übertrieben. Und diese Übertreibungen, die verfangen sich in den Köpfen und das ist ein Teil des Erfolgs. Es gibt zum Beispiel diese, von Google gab es ein System, was chemische Verbindungen finden sollte und dann hat Google gesagt, es hat 2,2 Millionen neue chemische Verbindungen gefunden, hat nachher haben das Leute untersucht und es waren vielleicht fünf oder sechs und der Rest war völliger Garbage, der gar keine Bedeutung hatte. Also, aber in den Köpfen bleiben die 2,2 Millionen. Das ist super beeindruckend und das verfängt sich. Genauso gab es halt diese Demo von Devin, die hat gerade so in Programmierkreisen große Aufruhr erzeugt, weil Devin halt von so Freelancer-Portalen eine Programmieraufgabe sich genommen hat und die dann selbstständig gelöst hat. Und da gibt es eine super tolle Analyse von jemandem, der gezeigt hat, ja, das ist gefakt, also da sind ein, zwei Sachen dabei, die waren echt cool, dass es das selbst hinbekommen hat, also beeindruckend, aber zu 95% ist das ein Fake und das kann man nachweisen und sehen, dass das falsch ist und das.

Lucas:
[1:58:43] Fragt man sich natürlich dann auch, ja, tut ihr euch damit gerade einen Gefallen, weil ihr macht ja auch das Vertrauen kaputt, wenn ihr dann die ganze Zeit lügt, aber darüber sollten wir uns immer bewusst sein, da wird sehr viel übertrieben, Da wird sehr viel gelogen und viele von diesen Geschichten sind einfach so fest in den Köpfen drin, wie zum Beispiel das Open AI mit GPT, das Bar-Exam, besser besteht als 90 Prozent der Menschen. Wurde auch in einem Paper untersucht, was ist in Wirklichkeit gewesen. Sie haben es verglichen mit Leuten, die schon dreimal durchgefallen sind. Und von denen waren sie besser als 90 Prozent. In Wirklichkeit waren sie besser als 15 Prozent der Leute, die das Bar-Examen abgelegt haben. Und was verfängt sich? Es verfängt sich 90 Prozent. Und da müssen wir halt einfach immer gut aufpassen, weil diese Geschichten erzählen sich immer weiter und dann irgendwann glauben die Leute, dass obwohl sie schon debunked wurden, bleibt dieser Fake, bleibt da und davon leben diese Firmen. Und wahrscheinlich wissen die auch, dass Teile davon halt am Schluss widerlegt werden, aber das ist nicht so wichtig, solange die Geschichte sich verfangen hat, dann ist der Marketing-Effekt erzeugt und der Rest ist Wurst. Dann sind halt ein paar Schlauberger, die sagen, hey, das war überhaupt nicht so, aber nachher haben sie trotzdem ihre Aktie wieder im Wert um 20 Prozent gesteigt.

Dirk:
[2:00:02] Und jetzt hast du ja nur von den Sachen geredet, die bei Ihnen selber aufgefallen sind. Wir haben ja noch gar nicht, ich glaube das sprengt auch den Rahmen heute, darüber gesprochen, was passiert mit den Fakes, die mithilfe dieser Systeme generiert werden. Also wir haben bisher immer von ausschließlich positiven Sachen gesprochen. Okay, du hast ja recherchiert, das geht nicht. Du hast dir Dinge zu einem Thema generieren lassen. Für dich selber, du hast irgendwie dir ein Bild generieren lassen, aber diese Deepfakes oder andere Fakes, die erstellt werden mit Sprachsynthese, mit Videos, mit Bildern, mit Texten, das haben wir noch gar nicht genannt. Und das ist ein extrem wichtiger Aspekt, der ganzen Medienhäusern haufenweise Arbeit macht, die die Effekt-Checking-Abteilung unterhalten und die mit die Banken von diesem ganzen Kram beschäftigt sind.

Dirk:
[2:01:00] Und das gab es schon immer, es gab schon immer Falschmeldungen, es gab schon immer irgendwelche Urban Legends, die sich verbreitet haben, die nichts mit AI zu tun haben und auch da bleibt immer ein bisschen was hängen. Das Problem ist jetzt, dass die Menge an Fakes halt exponentiell wächst, weil es einfach super einfach ist, die zu erstellen und da ist das das Gleiche. Es bleibt immer so ein bisschen hängen, weil wenn du das debunks, ich habe das letztens wieder miterlebt, meine Frau, die haben ein Debunk-Video gemacht, dass der Meeresspiegel nicht steigt und dann gibt es Bilder aus Rio de Janeiro, wo über die Jahre der Meeresspiegel gesunken ist. Und da waren die eine Woche dran, ein ganzes Team ein Video zu machen, das diesen Fakt debunked, der Aufwand, den du da reinsteckst, dieses einzelne Zeug zu widerlegen, ja die Information ist da draußen im Netz, das haben die Leute gesehen, einige haben dann irgendwann gehört ah nee, das ist ja gar nicht echt, aber das ist auf jeden Fall eine Schattenseite, finde ich.

Lucas:
[2:02:09] Ja, und die Kosten sind halt so gering geworden, diese Fakes zu erzeugen. Und die sinkt halt mit dieser Technologie nochmal gewaltig. Und das ist der ganz wichtige Punkt.

Dirk:
[2:02:21] Das ist ein Aspekt, den kann man nicht von der Hand weisen und der muss auch meiner Meinung nach abgewogen werden gegen all die scheinbaren und realen Vorteile, die diese Technologie mit sich bringt. Und da sind wir wieder bei dem, was du am Anfang gesagt hast. Die Technologie selber ist nicht schlecht. Gut, die ist vielleicht sogar schlecht in einigen Aspekten, aber das, wie wir sie nutzen, macht sie dann gut oder zu was Schlechtem. Und da ist unsere Verantwortung als Menschen dann zu sagen, wir wollen das irgendwie reglementieren, regulieren und irgendwo einschränken, weil es gibt ganz konkrete Gefahren, die möchten wir uns nicht damit einkaufen und verzichten dann eben auf ein paar Benefits an der Stelle.

Lucas:
[2:03:10] Ja, genau. Und das ist halt immer diese Kosten-Nutzen-Abwägung, die leider verloren geht. Das finde ich, ja, ist ein ganz wichtiger Punkt.

Bullshit als Kern-Konzept

Dirk:
[2:03:20] Okay, das heißt, die lügen selber und erzeugen Lügen?

Lucas:
[2:03:49] Als Begriff durchgezogen. durchgesetzt, aber auch dieser Punkt ist halt immer noch da. Ich finde es ein bisschen passender, es gibt von Harry Frankfurt, gab so ein Buch, wo er, den Begriff von Bullshit quasi eingeführt hat, also klar, das Wort Bullshit gab es schon lange, aber Bullshit als, im Unterschied zu einer Lüge, eine Lüge ist quasi Absicht, ich erzähle dir etwas und ich weiß, dass es nicht stimmt und Bullshit ist, ich erzähle dir was und mir ist egal, ob es stimmt oder nicht, sondern ich erzähle einfach und, der Wahrheitsgehalt ist irrelevant. Und das ist eigentlich das bessere mentale Modell, weil, Es hat eben keine Vorstellung von Wahrheit. Es generiert Text und der soll gut klingen. Und das ist quasi das, was da passiert. Und deswegen passt ein bisschen auf mit diesem Halluzinieren, weil ich habe das auch schon ein paar Mal von Leuten, die große Fans von dieser Technologie sind, gehört. Ja, meistens ist es richtig und dann fängt es manchmal an zu halluzinieren, so als wären das zwei Zustände, die abgrenzbar sind.

Dirk:
[2:04:51] Auf einmal hat es einen Pilz gegessen.

Lucas:
[2:04:52] Genau.

Dirk:
[2:04:53] Jetzt geht es ihm nicht gut. Ich komme morgen wieder.

Lucas:
[2:05:25] Nicht. und deswegen finde ich dieses Bullshit als Konzept ganz gut weil es ist, ich würde nicht unterstellen, dass zum Beispiel OpenAI absichtlich dieses Ding falsche Sachen generieren lässt das ist ja auch nicht in deren Interesse es ist halt nur nicht, das Ziel, möglichst Wahrheit zu erzeugen. Das ist eben nicht das Ziel.

Dirk:
[2:05:45] Ich würde sogar sagen, dass sie das gar nicht so weit steuern können. Also sie könnten gar nicht sagen, generier bitte absichtlich Lügen. Ja, stimmt. Also es ist ein statistisches Modell, es generiert Text. Und selbst wenn es nur mit Wahrheit gefüttert worden wäre, würde wahrscheinlich zwischendurch mal irgendwas rauskommen, was einfach nicht passt.

Lucas:
[2:06:10] Ja, genau, weil es einfach zwei Sachen miteinander mischt, die nicht zusammengehören.

Reasoning

Dirk:
[2:06:14] Und das ist dann ja vielleicht auch jetzt der Teil, wo wir nochmal über Reasoning sprechen können.

Lucas:
[2:06:20] Ja, weil das ist auch ganz interessant, weil das auch wieder so ein Missverständnis eigentlich ist, so eine Unterstellung. Also Reasoning ist so der Begriff, den man benutzt, um zu sagen, erkläre mir, wie du zu diesem Schluss gekommen bist. Also das kennt man vielleicht auch aus der Schule. Also du hast eine Rechenaufgabe und du kriegst die Punkte für das richtige Ergebnis und dann kriegst du aber auch nochmal Punkte dafür, dass du den Rechenweg richtig gezeigt hast.

Dirk:
[2:06:46] Meistens sind mehr Punkte für den Rechenweg als für das Ergebnis.

Lucas:
[2:06:50] Und das ist eigentlich auch gut. Also ich persönlich finde das auch gut, weil das ist eigentlich der wichtige Teil. Aber ich wollte jetzt eigentlich nur erklären, das ist der Reasoning-Teil. Also der Reasoning-Teil ist nicht die Antwort, sondern der Lösungsweg in Anführungsstrichen. Und du kannst eben so einem Chat-GPT als Anweisung geben.

Lucas:
[2:07:10] Bitte löse diese Aufgabe und erkläre mir den Weg dorthin. Und dann sind Leute davon überzeugt, dass es jetzt halt ja eine, also dass es reasonen kann, also dass es eben Schlussfolgerungen ziehen kann. Und das stimmt nicht. Das ist nicht das, was passiert. Es generiert den Text, der aussieht wie eine Erklärung zu der Aufgabe, die er bekommen hat. Und die kann dazu passen. Aber es gab wieder jetzt ein ganz aktuelles Paper von vor einem oder zwei Monaten, wo die untersucht haben.

Lucas:
[2:07:44] Das Reasoning zu korrekten Antworten war teilweise vollständig falsch. Was auch wieder eigentlich intuitiv klar ist. Warum ist das so? Weil es generiert ja wieder nur Text und der muss ja gar nicht zu der Antwort passen. Also das ist eben schon wieder eine Missinterpretation von dem, was dort passiert. Das ist eben korrekt reasoned. Das tut es nicht. Also es kann keine Schlussfolgerung ziehen. Es kann nur Text generieren. Und deswegen sollte man sich davon wieder lösen. und da werden wir jetzt auch wieder einen ganz interessanten Effekt sehen, wenn jetzt dieses Paper rauskommt, werden genau die Sachen, die in diesem Paper stehen, natürlich gefixt werden, die werden hart trainiert auf dem Modell, damit das möglichst diese Sachen richtig, erklärt und dann erscheint es so, als, ja guck, die haben da Quatsch erzählt, aber das unterliegende Problem wird dadurch ja nicht gelöst, sondern es hat jetzt dann diese fünf Fälle oder sechs Fälle, die in dem Paper ausführlich erklärt sind, werden dann halt so bis, ins Unendliche trainiert. Das ist so ähnlich, wie wenn du fällst durch eine Prüfung, weil dein Reasoning falsch war und dann gehst du zu deiner Klassenkameradin und sagst, hey, wie hast du das eigentlich gemacht? Und dann schreibt sie dir das auf und sagt so, hier, genau so funktioniert das. Und dann schreibt sie genau das hin.

Lucas:
[2:08:56] Und das heißt aber nicht, dass du auf einmal das Reasoning kannst, sondern das heißt nur, dass du jetzt diesen Fall erklären kannst. Und da müssen wir auch wieder aufpassen und das auch wieder, ich habe das so oft von Leuten gehört, die intensiv sich mit, also sehr viel mit Prompting machen, dass einen der wichtigsten Hacks, wenn man sowas macht, ist, bring es dazu, den Lösungsweg zu erklären. Das ist eine vollständig falsche Vorstellung von dem, was da passiert. Das ist nicht das, was da passiert und wir können nicht damit die Maschine zu einem richtigen Ergebnis führen. Es kann halt sein, dass durch die Autovervollständigung, also durch die Vervollständigung, die da passiert, dass eben es in einem Wahrscheinlichkeitsbereich landet, wo eben andere Leute auch eine ausführliche Erklärung gegeben haben und dadurch auch zum richtigen Ergebnis gekommen sind. Und dadurch kann es ein richtigeres Ergebnis erzeugen. Das heißt also, es ist keine unnütze Technik, das so zu tun, also dieses Reasoning durchzuführen, weil wir dann eben auf eine Wahrscheinlichkeitsfahrt landen. Der zu einem Ergebnis führt, das vielleicht besser ist. Aber das heißt nicht, dass dieses System jetzt gelernt hat, eine Schlussfolgerung zu ziehen. Und das finde ich eine von den absurden.

Lucas:
[2:10:06] Ausprägungen von diesem Hype, dass jetzt halt solche Sachen da reinterpretiert werden. Wir sehen hier schon wieder den Elisa-Effekt im Prinzip, weil es sieht ja aus wie eine stufenweise Erklärung. Und das ist auch was, was man gut beobachten muss. Viele Leute sagen so, ja, okay, die Sachen, die ich kann, das sind schon manchmal Sachen, dabei, die stimmen nicht so ganz, aber fachfremde Sachen kann er super gut. Weil das wäre aber nicht wahr. Und diesen Effekt haben wir ganz klar. Da würde ich jetzt auch nochmal kurz einen Seitenhieb auf meine Zunft oder auf unsere Zunft geben, dass wir das immer gerne machen. Die ITler wissen nämlich alles besser. Die kennen nämlich alle Lösungen für alle Fachbereiche und die Fachbereiche haben eh die Ahnung und wir wissen es besser. Und das ist jetzt quasi, ChatGPT ist das auf Steroiden, weil wir jetzt einfach alles, alles besser wissen. Wir brauchen ja gar nicht erst die Experten fragen, wir können es einfach. Und das sieht man da halt auch wieder relativ stark ausgeprägt, würde ich behaupten.

Produktiver durch KI

Dirk:
[2:11:03] Okay, aber was ist denn jetzt hier, du hattest es eben schon mal gesagt, wir sparen jetzt Zeit ein, weil jetzt habe ich dann, nutze ich diese ganzen coolen Hacks, dann reest mir das Ding da ein zurecht und dann kann ich doch ganz schnell meine ganzen, vor allen Dingen die ganzen Programmier-Sachen, also alle so textbasierten Dinge lösen. Sagen wir mal, ich also jetzt vor allen Dingen in unserer Zunft und jetzt gar nicht mal, ich lasse mir da Texte generieren für irgendwie die Zeitung oder sowas, sondern wir sind auch demnächst alle arbeitslos, Lukas. Weil dann Chat-GPT macht das für uns, oder?

Lucas:
[2:11:40] Ja, genau. Da ist zum einen jetzt erstmal interessant, das Programmieren hat den großen Vorteil in diesem Bereich, dass du Teile des Trainings automatisieren kannst, weil du zumindest mal, automatisiert feststellen kannst, ob das ein gültiger Code ist, der erzeugt wurde. Das heißt, viele von diesen Code-Assistenten erzeugen zumindest syntaktisch korrekten Code.

Dirk:
[2:12:02] Weil es viel einfacher ist.

Lucas:
[2:12:06] Automatisiert zu trainieren darauf, dass der Code syntaktisch korrekt ist. Ob er sinnhaft ist, ist jetzt wieder die andere Frage, aber er ist zumindest syntaktisch korrekt. Und das ist eben bei Sprache ein gutes Stück komplexer. Das heißt also, viele von diesen Code-Assistenten sind tatsächlich in der Lage, Code, den der Computer als Code anerkennt, zu generieren.

Dirk:
[2:12:28] Ja, und der in den meisten Fällen ja auch zumindest so mehr oder weniger mit dem zu tun hat, was du da angefragt hast. Ja, absolut. Weil das eben, das ist eben der wichtige Unterschied zu natürlicher Sprache oder auch Bildgenerierung. Das ist halt deutlich, deutlich einfacher, Programmcode zu generieren und den zu prüfen. Also das ist auch immer ein bisschen von der Programmiersprache abhängig, aber je nachdem wird das dann noch einfacher, je nachdem, welche Programmiersprache man verwendet. Weil es einfach sehr wenig Freiheitsgrade gibt und das sehr restriktiv ist, was da generiert werden kann, damit es überhaupt durch den Compiler geht.

Lucas:
[2:13:04] Ja, genau. Aber selbst in dem Bereich ... Ist es zumindest zum aktuellen Zeitpunkt völlig unklar, ob das wirklich die Produktivität steigert. Auch hier, wenn man sich jetzt wieder Paper anguckt, die von Microsoft veröffentlicht werden, jawohl, ist alles viel besser. Aber man sollte vielleicht auch nochmal an Sachen gucken, die eben nicht von dem Hersteller gebracht sind. Und da gibt es halt aktuell relativ viele Untersuchungen, weil die Programmierer und Programmierenden im Allgemeinen sind daran sehr interessiert, wie das so ist. Und da gab es ein mittlerweile relativ bekanntes Paper, das untersucht hat, wie sicher ist der Code, der da rausfällt. Und dabei ist super interessant, dass er zum einen unsicherer ist, als der, der von Menschen geschrieben wurde, aber dass die Leute, die einen Assistenten zum Coden benutzt haben, und Assistent ist schon wieder Vermenschlichung, also ich falle selbst in diese Falle rein, also die so einen Generator benutzt haben, den Code als sicherer empfinden, den sie geschrieben haben. Das heißt also, wir haben eine höhere Selbstüberzeugung bei schlechterer Qualität. Das ist natürlich eine furchtbare Kombination.

Lucas:
[2:14:16] Genauso gibt es eben eine Untersuchung, wo die geguckt haben, wie viel, also im Programmieren gibt es diese Idee von Code Reuse. Also du schreibst halt einen Teil deines Codes und dann rufst du den von mehreren Stellen wieder auf, anstatt dieselbe Logik fünfmal zu schreiben. Das ist so eine Idee. Darin sind diese Generatoren sehr schlecht, weil die generieren halt einfach mal den gesamten Code und verwenden nichts wieder von der anderen Stelle. Das heißt also, der Code-Reuse sinkt extrem. Und was auch schon in ersten Studien gesehen wurde, ist, die Leute ändern den Code viel, viel häufiger. Das nennen wir Churn in der Entwicklung. Machen immer wieder Änderungen über demselben Ding, wenn sie einen Code-Generator benutzen.

Dirk:
[2:15:03] Was ja logisch ist, weil du immer wieder den gesamten Code generieren lässt. Wir müssen jetzt aufpassen, dass wir da nicht zu weit absacken. Aber vielleicht schaffen wir es euch das so etwas anschaulich zu vermitteln. Weil der Unterschied zu anderen Bereichen, wo das angewendet wird, ist, dass man beim Code sehr kleinteilig arbeiten kann. Ich habe dann hier irgendwo ein Ding, da muss ich irgendwie auf die Datenbank zugreifen. Da muss ich hier irgendwie eine Liste ausgeben. Und das kann ich sehr speziell fragen und dann gibt mir der Generator, hier hast du eine Liste ausgeben, hier hast du die Datenbank abgefragt. Das sind dann, ja, vielleicht kann man sich das so vorstellen, ihr habt im Grunde dann lauter so kleine Patches irgendwo draufgeklebt, die alle inhaltlich, also auf der kleinsten Ebene sind. Also gut, Sicherheitslücken sind vielleicht ein bisschen größer, aber erstmal würde ich sagen, sind die nicht inneren falsch, was dabei rauskommt. Also auf dieser mikroskopischen Ebene ist das vernünftiges Zeug, was da entstanden ist, weil das auch jetzt kein Hexenwerk ist, das zu erzeugen.

Dirk:
[2:16:16] Aber die Kunst in Anführungszeichen, ich will jetzt unsere Tätigkeit auch nicht zu hoch stellen, aber die eigentliche Aufgabe ist nicht eine Liste ausgeben, weil das ist halt kein Hexenwerk, sondern die Herausforderung, die dabei besteht, ist nämlich eben wie bei einem Bild eben ein zusammenhängend schönes Bild zu malen, was verschiedene Ebenen hat, was irgendwie eine Bildkomposition hat. Einen Code zu produzieren, der auch in fünf Jahren noch, wo man den aufmachen kann und der Lukas und der Dirk sagen können, ah ja, dann kann ich das hier ändern, das macht das und das und ich muss nur eine Zeile ändern, um irgendein Ergebnis zu haben und nicht alles wegwerfen. Und in dieser Falle tappen wir nämlich als, gerade als Entwickler, viel, viel stärker als in anderen Bereichen, wo das nämlich, es gibt nicht diese mikroskopischen Elemente, die ich mir dauernd generieren kann und das Gefühl habe, ich bin super produktiv den ganzen Tag, weil ich hau da die ganze Zeit Zeug raus. Genau.

Lucas:
[2:17:17] Und das erklärt halt auch, warum viele fühlen sich halt produktiver, weil sie schneller mehr Zeilencode erzeugen. Aber ob das nach einem Jahr tatsächlich, konstruktiver war, was sie erzeugt haben, da stehen halt viele, viele Fragezeichen dran. Also ich merke das auch in Unterhaltung mit diesen Leuten, die das sehr schätzen. Viele generieren halt eher so One-Off Sachen, also so, ich brauche jetzt einmal so einen Code und danach brauche ich den auch nie wieder, den kann ich dann wegwerfen. Ja, das ist halt ein anderer Use Case als ein Programmcode immer weiterzuentwickeln, Schritt für Schritt. Aber ja, ich möchte jetzt halt auch nicht die Leute, die hier nichts mit Programmieren am Hut haben, verlieren. Aber ich finde, Das ist halt einfach ein ganz gutes Beispiel, weil wir da halt einfach ein bisschen näher dran sind, der Dirk und ich, um da einfach so zu sagen, ja, also könnte sein, dass es ein bisschen produktiver macht, aber es ist so viel produktiver, Fragezeichen.

Dirk:
[2:18:13] Also das ist schon so ein bisschen problematisch, weil als Programmierer hat man das Gefühl, ich habe hier ganz viel Stuff, den ich bekomme, also viel greifbarer, als wenn ich das irgendwie Photoshop benutzen würde oder mir Texte generieren lasse. Das kann man nicht genau vergleichen, den gefühlten Output, den ich auf einmal habe. Und zugleich sind wir dann als so aus der IT-Welt ja auch die, die es dann weiterentwickeln und vielleicht die Ersten sind, die sagen, ach guck mal, wie toll das alles ist. Und da müssen wir, glaube ich, besonders aufpassen, dass wir da nicht selbst in die Falle tappen und uns so ein Ei legen. Okay, aber das ist kein Programmier-Podcast.

Lucas:
[2:18:57] Genau. Das war es jetzt auch mit Programmieren. Mehr zu Programmieren kommt auch nicht mehr. Genau, aber das einfach nur so als Beispiel und ich glaube, das muss man für jedes Feld nochmal separat bewerten, wie die Produktivitätssteigerung ist, aber einfach mal als auch nochmal einen Vergleichspunkt, als das Internet so entstanden ist, da haben die Leute gesagt, wenn die Menschheit alle auf die gesamten Informationen der Welt zugreifen kann, dann werden wir so produktiv, Das wird der Wahnsinn. Und es ist halt seit ungefähr 20 bis 30 Jahren kein Produktivitätsgewinn mehr zu bemerken. Komisch, was ist da passiert. Also wir schätzen das manchmal auch ein bisschen falsch ein, welche Sachen uns produktiver machen, weil sowas wie das Internet kann uns super produktiv machen, um bestimmte Sachen zu finden, aber ist auch sehr gut darin, uns abzudenken und mal hier zu gucken und mal da zu gucken und dann viel von der Produktivität nachher wieder aufzufressen. Und auch der Effekt kann halt auf solche Generatoren genauso zutreffen. Dann machen wir zwar irgendwie ganz viel, aber wir machen auch viel Unsinn, den wir sonst vorher nicht gemacht hätten.

Dirk:
[2:19:58] Genau, weil man jetzt ja so viel machen kann.

Lucas:
[2:20:00] Genau.

Dirk:
[2:20:02] Okay, so bevor wir auf das, das hatten wir es immer schon mal angeschnitten, das Zeug... Macht ja nicht einfach Dinge, sondern das braucht dafür Energie,

Bias

Dirk:
[2:20:12] müssen wir noch ganz kurz auf Bias eingehen. Weil das ist, glaube ich, gefühlt in letzter Zeit nicht so ganz im Thema, aber gefühlt immer mal wieder, wenn es AI ist, dann ist es ja quasi vorurteilsfrei. Weil dann ist es ja neutral endlich mal. Dann kann ich ja endlich neutral Dinge bewerten lassen von solchen Systemen. Ist das denn so, Lukas?

Lucas:
[2:20:38] Genau, also das wäre schön. Also irgendwie ist das, das ist auch was, was man von Politikern häufiger mal hört. Algorithmen sind quasi neutral. Allein das ist halt schon Quatsch, weil Algorithmen können extrem diskriminierend sein. Ich weiß nicht, du kannst einen Algorithmus schreiben, der halt sagt, ja, wenn es eine Frau ist, dann gebe ich dir schon mal 20 Prozent weniger Gehalt. Also das ist auch ein Algorithmus. Ein Algorithmus ist nur etwas, was quasi immer dasselbe, also was ein nachvollziehbares Rezept ist, um irgendwas zu bauen. Also ist ein Algorithmus auf keinen Fall neutral, also auf keinen Fall und mit Daten ist es genauso, wenn ich Daten reingebe, in denen bestimmte Vorteile enthalten sind dann werden die sich auch in dem Ergebnis widerspiegeln wenn in den gesamten Texten drin steht Arzt und nicht Ärztin, Dann wird der Text wahrscheinlich nur 80 reden. Genau, und auch solche Sachen sind beispielhaft halt auch schon nachgewiesen, dass dann eben Geschlechterstereotypen sich in generierten Texten halt sehr stark wiederfinden.

Lucas:
[2:21:48] Weil die halt eben auf dem Internet trainiert ist, was halt voll davon ist. Und die Firmen geben sich verschieden viel, aber schon die meisten etwas Mühe, um das halt rauszutrainieren, aber das ist ja ein Kampf gegen Windmühlen, weil dieses Trainingset ist halt so vergiftet mit diesen Stereotypen, dass das nicht gehen kann und dabei ist auch noch zu beachten, die Gesellschaft wandelt sich stetig und das Trainingset.

Lucas:
[2:22:17] Was halt Daten enthält, die 30 Jahre alt sind, enthält halt auch Weltansichten, die 30 Jahre alt sind, die wir vielleicht heute nicht mehr vertreten. Das heißt, die sind auch mit im Trainingset enthalten. Wie stark sie gewichtet sind, ist dann immer nochmal eine separate Frage. Aber all das fließt darin ein und darum kann das nicht neutral oder fortschrittlich oder sonst irgendwas sein, sondern es basiert eben auf allem, was es trainiert hat und versucht das dann eben zu generieren. Und das sehen wir halt auch, also bei den Bildgeneratoren ist es vielleicht sogar noch offensichtlicher. Wenn man Bilder generieren lässt zu bestimmten Themen, dann wirst du immer das Vorurteil zu diesem Thema finden. Also wenn du sagst, gib mir sieben Pärchen, dann sind das sieben heterosexuelle Pärchen, wahrscheinlich weiß, wahrscheinlich normschön, weil das auf Models und so weiter trainiert wurde und Schauspieler und Schauspielerinnen und das ist das Datenset und deswegen ist das ein Bias. Ist, also das einfach mal als ein Beispiel, aber sowas kann man sich halt immer vorstellen, wenn, das ist eine.

Lucas:
[2:23:23] Mustererkennungsmaschine und es erkennt Muster in den Daten und wenn die Daten dieses Muster zeigen, dann wird auch das Ergebnis davon erzeugt. Ja, so einfach ist das. Wir hatten halt das auch, da gab es auch wieder tausende von Untersuchungen zu, wie zum Beispiel, dass ja, ähm, Amazon hat so ein automatisiertes System gebaut, um Bewerbungen zu bewerten. Und oh Wunder, es hat irgendwie Männer bevorzugt zu Frauen, weil eben die Amazon vorher immer Männer eingestellt hat. Also sagt das System, aha, das ist ein gutes Merkmal, an dem ich mir merken kann, das ist eine Person, die sollten wir einstellen. Und das ist nicht weg dadurch, dass das Datenset größer ist. Das ist eigentlich noch größer, das Problem dadurch, dass das Datenset größer ist, weil es noch viel unkontrollierter ist.

Dirk:
[2:24:11] Okay, also zu viel zum Thema Bias. Ein weiterer Punkt, den man nicht außer Acht lassen sollte.

(Energie)Kosten von KI

Dirk:
[2:24:17] Gut, jetzt hatten wir schon öfter angesprochen, dass es vielleicht Aspekte gibt, die ja gar nicht offensichtlich sind. Also wenn man darüber nachdenkt, ist es natürlich super offensichtlich, dass das Zeug irgendwie Strom braucht. Aber wie viel Strom ist nicht so ohne weiteres klar. Und du hattest es eben schon ein paar Mal angedeutet und ich hatte eben auch gesagt, es gibt bei der Technologie bestimmt vielleicht durchaus Dinge, die inneren schlecht sind und der Energieverbrauch, würde ich sagen, ist ein Aspekt davon. Von einleitend vielleicht, du hattest mir letztens eine Statistik geschickt und das hatte ich mir angeschaut und das dann nochmal nachgeguckt und eine Anfrage an Google Search AI, eine Anfrage, also nicht tausend, sondern eine einzige, verbraucht so viel Strom, wie eine 8 Watt LED eine Stunde leuchten zu lassen. Das muss man sich mal vorstellen. Und ich finde das insbesondere erwähnenswert, weil gerade Google und gerade andere große Tech-Konzerne, aber vor allen Dingen Google, sich die letzten Jahre eigentlich sehr damit gerühmt hat und sehr viel Energie investiert, erfolgreich investiert hat, Energie zu sparen. Genau, Energie. Sehr viel Mühe gegeben hat, ihre Data Center so energieeffizient wie möglich zu halten, so wenig Strom wie möglich zu verbrauchen. Und jetzt einfach through the roof das Zeug wieder rausballern.

Lucas:
[2:25:39] Ja, und da ist halt was, was auch nochmal für die Leute, die sich nicht irgendwie mit Entwicklung und so weiter beschäftigen, eine Sache, die selbst Entwickler und Entwicklerinnen oft unterschätzen, ist, wir denken immer an den Energieverbrauch von dem Gerät, das wir gerade in der Hand haben. Wenn wir irgendwie auf einem Computer sind, dann denken wir, wie viel Strom hat der verbraucht oder wie viel hat mein Telefon verbraucht. Aber in der heutigen Zeit ist der meiste Energieverbrauch, den ihr durch die Sachen, die ihr da macht, ist nicht an eurem Gerät, sondern auf irgendeinem Server, in irgendeinem Rechenzentrum irgendwo weit weg und auf dem Weg von euch zu dem Rechenzentrum. Da wird ganz viel Energie verpulvert, um das zu erzeugen. Und das ist bei AI auch ganz, ganz klar der Fall. Also wenn ihr zum Beispiel ein Bild generieren lasst mit Mid-Journey oder auch wieder mit GPT, dann erzeugt ihr das Bild ja nicht bei euch auf dem Computer. IPhone oder auf deinem Android-Telefon, sondern bei denen auf dem Server. Das heißt, der Akku geht nicht sofort leer, weil ihr Bilder generiert. Also wirkt es ja erstmal so, als wäre es nicht so wild, aber der Strom wird halt an einer anderen Stelle verbraucht. Aber er wird trotzdem verbraucht und das ist eben das Problem.

Lucas:
[2:26:46] Da gibt es ein sehr gutes Paper, das habe ich auch mit in die Show Notes gepackt, wo nochmal das alles auseinander gedröselt wird. Also wie viel Energie kostet es, Text zu generieren, wie viel Energie kostet es, Bilder zu generieren. Und da ist auf jeden Fall hervorzuheben, Bilder zu generieren, ist unfassbar energieaufwendig, also selbst im Vergleich zu den anderen AI-Tätigkeiten, selbst das, was du jetzt gesagt hast zu Google AI, also bei Google stellen wir schon fest, eine Google-Anfrage ist schon energiefressender, als wir das erstmal denken, aber so eine Google-AI-Energieanfrage, ist noch viel, viel energiefressender und sowas wie ChatGPT ist irgendwo nochmal dazwischen und in diesem Paper haben sie dann auch nochmal hervorgehoben, wie viel Energie es verbraucht, ein einziges Bild zu generieren. Ein Bild zu generieren verbraucht ungefähr drei Kilowattstunden. Das heißt, da geht es jetzt wirklich nicht um die Trainingszeit, sondern um das Generieren dieses einen Bildes. Und viele generieren ja dann nicht ein Bild, sondern sie sagen, hier generieren wir mal ein lustiges Bild mit Clownsnase und dann machen sie eins, dann, ne, finde ich doof, noch eins, noch eins, noch eins und dann haben sie schnell mal 10.

Dirk:
[2:27:57] Ja, meistens generieren die ja sowieso direkt schon 4. Und dann kannst du auswählen, wo du weiter tiefer gehen willst. Genau.

Lucas:
[2:28:04] Und das muss man sich klar machen. Also gerade diese Bildgenerierung ist unfassbar energieaufwendig. Deswegen wäre mein klarer Appell, genau diese Praxis nochmal sehr gut zu überdenken, ob das so sinnvoll ist, weil die Ergebnisse sind meistens gar nicht so toll. Und wenn ihr dann auch noch mehr als ein Bild generiert habt, überlegt euch nochmal, ob das was das wirklich wert ist. Also so viel, also klar, erneuerbare Energien, alles cool, aber davon haben wir noch nicht unendlich. Und solange wir das nicht haben, müssen wir irgendwie diese Energie aufteilen. Und ob das der beste Weg ist, das zu investieren, würde ich jetzt mal sehr in Frage stellen.

Dirk:
[2:28:46] Drei Kilowattstunden ist echt eine Menge.

Lucas:
[2:28:49] Ja, und das ist halt auch nochmal so ein Punkt, der mich so ein bisschen auch beschäftigt, so im Hinterkopf ist, wie lange können diese Unternehmen eigentlich noch, existieren, wann haben die einfach gar kein Geld mehr, weil das einfach so teuer ist, weil die Leute bezahlen dafür ja fast nichts und allein dieser Energieverbrauch ist ja schon absurd. Deswegen ja. Also es hat einen Grund, warum Apple auf seiner tollen Keynote bei dem Bild generieren, sehr kleine Bilder mit sehr sonst was generiert, weil das ja auf dem Device passiert, weil die wissen genau, dass wenn sie damit so mit Journey Riesenbilder bauen würden, dann wäre der Akku ganz schnell leer und dann wären die Leute sehr schnell sehr unglücklich. Ja.

Dirk:
[2:29:31] Okay, das heißt Thema Energie ist was, was ja total hintendran passiert, wo man sich nicht so richtig Gedanken darüber macht. Deswegen hier auch nochmal ein Punkt, der einfach damit genannt werden muss, weil irgendwo muss das herkommen, das Zeug. Und ja, das passiert nicht auf den Endgeräten. Die Endgeräte, das hatten wir nämlich letztens auch nochmal festgestellt, als wir über so aktuelle Prozessorgenerationen unterhalten haben. Für Endgeräte gibt es seit Jahren die Bestrebung, dass die Dinger so energieeffizient wie möglich sind. Also, keine Ahnung, mein Laptop, der ist bei 70 Prozent geladen und der hält den ganzen Tag. Und der ist nicht zum Webbrowsen da. Und das Gleiche mit dem Telefon, das läuft einfach den ganzen Tag und da kannst du zwischendurch einen Film gucken, alles Mögliche. Das fällt dir dann besonders dann auf, wenn du eine App hast, die nicht richtig optimiert ist und die einfach den Akku leer saugt für eine Tätigkeit, wo sonst das nicht passiert. Also das ist sehr optimiert und man schiebt das einfach woanders hin, so raus aus dem Fokus der Leute, die es benutzen.

Lucas:
[2:30:37] Und auch um das nochmal zu verdeutlichen, weil du das eben schon gesagt hast, die haben ihre Rechenzentren so toll optimiert. Microsoft war auf einem richtig guten Weg, ihre Klimaziele zu erreichen, tatsächlich carbon neutral zu werden und verfehlen die Ziele jetzt, weil sie die letzten zwei Jahre alles in AI reinbuttern und jetzt sind sie wieder auf dem Kurs, nicht mehr klimaneutral zu werden. Das heißt also, das hat halt wirklich ganz konkrete Auswirkungen, was da passiert und das ist kein abstraktes Problem. Wir sollten uns darüber sehr bewusst sein und nochmal darüber nachdenken, wie wollen wir Menschen unsere Energie, also nicht unsere menschliche Energie, die, sondern die, den Strom, wie wollen wir die investieren und das ist eben kein Ding, wo man einfach in alles reinstecken kann, weil so viel haben wir nicht. Das.

Dirk:
[2:31:27] Genau. Okay, dann, also wir sind, ihr habt ja schon mitbekommen, anscheinend gerade in der Ecke gelandet, die Auswirkungen, die drumherum noch so sind, also abgesehen von den technischen Dingen, die wir am Anfang so hatten, die mehr oder weniger neutral waren, wo einfach die Vorgehensweise erklärt wurde und wo uns klar geworden ist, wie diese Systeme arbeiten, was ja im Grunde erstmal ja neutral zu bewerten ist. Jetzt sind wir so ein bisschen in den Dingen, die einfach innerent problematisch sind.

There is no AI, only other people's content

Dirk:
[2:31:59] Und das nächste Punkt ist sicherlich, wo kommen diese Trainingsdaten her? Du hast ja gesagt, das ganze Internet und das Internet kennen wir ja, das gehört ja allem. Hat ja keiner Rechte oder irgendwas. Und deswegen kann man das auch einfach anstandslos trainieren darauf, ohne dass irgendwem die Rechte verletzt werden. Nächster Punkt.

Lucas:
[2:32:23] Ja, also das ist tatsächlich halt sehr lustig, weil dadurch, dass eben diese Metapher vom Lernen benutzt wird, behaupten dann diese Firmen, ja, aber das ist ja, also wir benutzen ja gar nicht die Daten, sondern wir lernen ja nur davon und lernen machen ja auch Menschen und das ist ja auch keine Copyright-Verletzung, deswegen ist das okay. Okay, ich bin gespannt, wie viele Gerichte dieser Argumentation folgen. Es ist sehr geschickt, das eben so zu formulieren, weil das halt so klingt, aber das ist einfach nicht das, was da passiert. Also es gab so ein interessantes Interview mit der Chefin von OpenAI, der Technikchefin, worauf habt ihr denn eure coolen Videomodelle trainiert? Und sie so, ja, weiß nicht, kann ich jetzt nicht so genau sagen. Weil klar, auf YouTube. Und wir haben ja schon Whisper erwähnt, dieses Speech-to-Text-Modell, was halt einfach quasi transkribieren kann. Es stellt sich raus, der Hauptgrund, warum OpenAI das gebaut hat, war, um mehr Trainingsdaten zu generieren, weil sie dann nämlich erstmal ganz YouTube transkribiert haben und diese Transkripte auch reingeschüttet haben in ihr Modell. Und deswegen ist jetzt aktuell klar, dass OpenAI auf Millionen Stunden YouTube-Videos trainiert ist.

Lucas:
[2:33:44] Anderer Fall, es gibt ja aktuell diesen Trend zu diesen Videogeneratoren und einer, der heißt Luma und selbst in ihrer eigenen Demo das Ding, was sie da generiert haben, sieht verdammt exakt so aus wie Monster Inc., weil das wahrscheinlich im Trainingset war und der prompt so in diese Richtung geführt hat und dann kommt halt ein Abklatsch von Monster Inc. raus.

Lucas:
[2:34:08] Und einfach nur mal, um das klarzumachen, das sind jetzt halt irgendwie, ja ... Irgendwie große Firmen, die da abgeschnorchelt werden, aber es werden auch ganz viele Künstler, deren Werke fließen halt da rein, wenn ihr Bilder generieren lasst. Dann wurde das mit einer hohen Wahrscheinlichkeit auf Bildern trainiert, wo die Künstler ihr Einverständnis gegeben haben, das zu tun. Die einzige Ausnahme, die ich in dem Bereich kenne, ist Adobe, die ja tatsächlich, bevor sie diesen riesen Fuck-Up hatten, klar gesagt haben, wir trainieren nur auf den Stockfotos, die uns schon gehören und sonst nirgendwo drauf und das haben halt die anderen Firmen gar nicht gemacht. Mittlerweile, dann hatten sie kurz den Move zu sagen, wir trainieren jetzt übrigens auf allen Sachen, die ihr in Photoshop öffnet, das haben sie dann wieder zurückgezogen, aber ja, also ich sag mal, die Lage da ist unklar, die Firmen reden sehr ungern darüber, worauf sie trainiert haben, weil sie genau wissen, wenn sie da die falschen Sachen erwähnen, dann kommt irgendjemand mit sehr vielen Anwälten und sagt mal, Hallo, wir denken an so Firmen wie Disney, die sehr viel Geld in ihre Rechtsabteilungen stecken und sehr gut im Klagen sind. Die lassen sich das bestimmt nicht gefallen. Und ich glaube, da werden wir noch sehr, sehr, sehr viele Gerichtsverfahren sehen in den Bereichen.

Lucas:
[2:35:28] Aber das ist für mich irgendwie sekundär, weil mit so großen Firmen habe ich immer so mittelfiele Mitleid. Für mich geht es eher um die Leute, die tatsächlich einfach, weiß ich nicht, online ihre Sachen auf DeviantArt posten, um Leuten eine Freude zu machen und vielleicht dann auf Patreon dafür Geld einsammeln. Und ja, deren Kram landet genauso in den Trainings-Set. Und dann kann man nachher Sachen generieren, die so aussehen wie die von diesem Künstler. Und ich finde, das ist auch so einer der Gründe, warum wir, glaube ich, auch zu diesem Podcast gekommen sind. Das ist ja auch wieder so ein Trend, dass Buchcover oder Brettspielcover oder Brettspielgrafiken alle mit solchen Generatoren generiert werden. Macht euch dabei bewusst, dass ihr eigentlich gerade unbezahlte Arbeit, also eigentlich Arbeit klaut von Menschen. Ja. Ihr Schweiß, ihre Tränen, ihre Liebe da reingesteckt und dann kommt halt jemand mit dem großen Schnorchel und wirft das einmal in den Mixer. Und ihr seid die Leute, die dann den Shake aus dem Mixer trinkt. Darüber sollte man sich einfach nochmal bewusst sein und ich finde, das ist bei den Bildern einfach sehr offensichtlich, weil das da einfach so einfach ist, Sachen in dem Stil von irgendjemandem generieren zu lassen.

Lucas:
[2:36:46] Aber das gilt natürlich für Texte genauso. Wenn ihr euch Texte generieren lasst, dann haben da Journalisten vielleicht für eine Zeitung den Text geschrieben oder sie haben vielleicht ein Buch geschrieben, das einfach da reingewurstet wurde. Und wir sollten uns selbst überlegen, ist das für uns in Ordnung, dass diese Arbeit unbezahlt bei uns auf dem Tisch landet und wir nachher vielleicht sogar noch unseren Namen drunter schreiben. Also es ist ja mittlerweile, glaube ich, relativ Konsens, dass man kein Copyright auf Bilder, die man mit so einem System generiert hat, setzen kann, also nicht sein eigenes Copyright. Aber ja, das unterliegende Problem ist trotzdem nicht gelöst, weil nur weil etwas im Internet ist, gehört es dir nicht also ich weiß nicht, warum er das sagen muss weil ich glaube, das war eigentlich allen mal klar, dass wenn ich jetzt auf dem Blog was poste, dann kann nicht der Dirk das einfach kopieren auf seinen Blogpost und sagen, hab ich übrigens geschrieben so ist es ist komisch und irgendwie, steht das jetzt wieder zur Debatte, und irgendwie so Sachen wie Napster, das war nicht okay okay, aber das ist jetzt okay. Da sind schon irgendwie zumindest mal fragwürdig. Ich persönlich schließe daraus, ich möchte keine Bilder generieren, weil ich finde das nicht in Ordnung, diesen Diebstahl zu begehen.

Lucas:
[2:38:07] Und wenn dann noch diese Energie-Usage dazu kommt, die ich eben erwähnt habe, ist für mich Bilder ein ganz klarer Fall, wo ich sage, da ist mein Trade-off. Nein, das mache ich nicht. Das passt nicht zu meinen Vorstellungen. Muss wieder jeder selbst für sich entscheiden. Aber einfach nochmal, weil das einfach so abstrahiert ist, wirkt es halt nicht so wie das, was da eigentlich passiert. Und das ist mir wichtig, das einfach nochmal mitzugeben.

Dirk:
[2:38:31] Ja, und es wird ja auch total easy angeboten. Du hast in Photoshop, ziehst du dir die Arbeitsfläche größer und sagst, expand. Und dann macht der Dinge und dann ist das expanded.

Lucas:
[2:38:46] Ja, ja.

Dirk:
[2:38:47] Ja, also alle, die am Brettspiel-Wochenende waren und unser Freunde-Buch-Cover gesehen haben, das Flügelschlag-Cover hat nicht dieses Format wie dieses Buch. Das habe ich aufgezogen und gesagt, hier, expand und dann hat er das expandet. Also das ist erschreckend einfach. Manchmal mache ich das auch einfach, um das nochmal zu sehen, wie einfach das ist. Und das hilft halt nicht dabei, sich eine Hürde im Kopf zu erschaffen, weil es einfach da ist und es ist super praktisch und es ist super convenient und zack, bumm, habe ich ganz viel Arbeit gespart.

Lucas:
[2:39:22] Ja, das stimmt. Also das ist ja nochmal so ein eigener Fall. Dann gibt es ja einfach noch dieses Bilder generieren. Ich frage mich wirklich, ob schon mal ein Bild generiert wurde, was irgendeinen Wert hatte. Also meistens ist das irgendwie so dieses Füllmaterial, was irgendwie auf Blocks als Aufmacher und was weiß ich ist. Und da finde ich das noch viel fraglicher.

Dirk:
[2:39:41] Ja, und du hattest es eben, DeviantArt erwähnt, es ist fast unbenutzbar geworden. Selbst mit, ich möchte kein AI sehen, ist alles voller AI. Und die Leute, wo ich die Sachen sehen möchte mittlerweile, sind gar nicht mehr auf DeviantArt. Also die veröffentlichen da einfach nicht mehr und es sieht alles gleich aus. Es ist einfach ein, es ist wirklich schwierig, ja, es ist fast unmöglich, das angenehm noch zu benutzen. Es ist so zwei, drei, die da noch ihren Kram machen, da gucke ich zwischendurch rein, aber wie es vor ein paar Jahren war, dass man regelmäßig drauf guckt und sich freut, ach guck mal, und Sachen entdeckt hat und Künstlerinnen entdeckt hat, das ist quasi vorbei.

Lucas:
[2:40:26] Ja, das ist schon krass. Und ich glaube, bei Künstlern und auch bei Comic-Artists zum Beispiel, da ist die Entwicklung so schnell, also da ist so viele, die jetzt schon aufgegeben haben. Weil sie einfach sagen, hey, alle erzeugen nur noch mein Kram und ich weiß nicht, was ich jetzt noch tun soll. Ja, und darüber müssen wir uns einfach bewusst sein, weil wir waren ja am Anfang nochmal bei so Zukunftsvisionen und ich weiß nicht, ob die Zukunftsvision wirklich war, wir erzeugen uns lustige Kunst, damit die Künstler nicht mehr Kunst machen können und einfach dann doch einen anderen Job nehmen müssen. Ich dachte, die Vision war, dass wir die Sachen, die nervig sind, irgendwie an die Maschinen geben und nicht die Sachen, für die Leute wirklich große Leidenschaft haben. Ob wir die wirklich automatisieren sollten. Und das auch mehr so nochmal auf diesem philosophischen Level.

Das Junior Problem

Lucas:
[2:41:24] Einfach nochmal sehr fraglich aus meiner Sicht.

Dirk:
[2:41:27] Gut, dann haben wir das Thema. Es kommen jetzt, glaube ich, nur noch so zum Abschluss die ganzen Downer. Das nächste Ding ist, das ist sicherlich auch ebenso aus dem Programmierkontext kommt das daher, aber auch in anderen Bereichen wird das ein Thema sein. Nein, es gibt ja Leute, die anfangen mit ihrer Arbeit und die in der Regel dann Arbeiten verrichten, die etwas einfacher sind, weil sie eben noch nicht so viel Erfahrung haben und irgendwo in den Job erst reinwachsen müssen. Und dann kriegen sie die, ja, oft kriegt man so ein bisschen die nervigen Aufgaben, auf die die erfahrenen Leute keinen Bock haben, die aber ganz wichtig sind, um eben irgendwie sich in den, also es gibt natürlich da Abstufungen, was nervige Arbeiten sind, die man den Leuten gibt. Es sollten schon immer Arbeiten sein, die zum Wachstum einladen, so bitte richtig verstehen. Aber diese Aufgaben gibt es de facto in allen Bereichen. Die müssen erledigt werden und erledigt.

Dirk:
[2:42:33] Traditionell, finde ich, helfen, die den Leuten eben zu wachsen, diesen Juniors, wie sie in verschiedenen Bereichen nun heißen. Wenn wir jetzt nun anfangen und sagen, okay, diese ganzen Dinge, die können ja auch die AI für uns lösen, dann können sich die Seniors oder wie auch immer man sie nennen möchte, geben das halt nicht mehr an die Juniors ab, sondern eben an die AI. Ist doch praktisch, oder?

Lucas:
[2:42:59] Super. Ich sehe gar kein Problem.

Dirk:
[2:43:02] Dann müssen die Juniors keine blöden Sachen mehr machen.

Lucas:
[2:43:05] Genau. Also das ist halt wirklich so ein Ding, das ich jetzt auch schon mehrfach festgestellt habe. Also es ist einfach immer schon schwierig, als Junior seinen ersten Job zu finden, weil alle wollen immer nur Leute, die Erfahrung haben und keiner will investieren darin, dass jemand Erfahrung sammelt. Und das wird jetzt halt noch krasser, weil dann die Leute sagen, ja, was ich jetzt vorher einem Junior gegeben hätte, das kann ich jetzt auch mit der Maschine machen. und dann brauchen wir gar keinen Junior einzustellen. Das ist natürlich offensichtlich schlimm, weil dann Juniors keinen Job haben und arbeitslos sind. Und zudem, Juniors sind ja die, die später Seniors werden. Das ist ein überraschender Effekt, aber die Seniors kommen ja nicht aus dem Ei und dann sind sie direkt da und dann geht's los. Sondern die waren ja auch mal Juniors. Und in vielen Bereichen, also da jetzt, keine Ahnung, wieder die Perspektive aus der IT, aber das ist, glaube ich, wirklich universell. Du lernst halt an diesen kleinen Aufgaben. Das, was so nervig erscheint, das ist das, womit du dich da halt findest.

Dirk:
[2:44:28] Und es hat einfach nicht funktioniert. Und das ist wichtig, diese Einsichten sind wichtig, die sind, wie Lukas sagt, universell, es hat nichts mit der IT zu tun, du, hast irgendwie theoretisch in deiner Ausbildung was gelernt und setzt das dann genauso um, aber es passt dann eben nicht, weil es ein anderer Kontext ist, ein bisschen anders und diese Erfahrung kriegst du nur damit, weil du da mal reingelaufen bist und wenn du das nicht mehr kannst, und wenn du das nicht mehr zulässt, dass Menschen daran wachsen, dann wirst du irgendwann keine Menschen mehr haben, die diese Erfahrung haben, ob du die Senior nennst oder wie auch immer. Aber diese Erfahrung wird dann weg sein. Ei, die Maschinen haben diese Erfahrung nicht. Die, nochmal, wir generieren nur Dinge damit. Nichts anderes. Und das ist ein sehr, sehr großes Problem, was, die anderen Sachen, die wir jetzt genannt haben, die sind so Sachen, okay, selbst die Energie, die nicht so direkt sichtbar ist, wenn man sich das klar macht, okay, wenn ich hier so ein Bild generiere, verschwindet da irgendwo Energie. Aber dieses Junior-Problem ist etwas, was erst in ein paar Jahren uns auf die Füße fallen wird, im Zweifel. Und was heißt im Zweifel? Bin ich sehr davon überzeugt, dass das ein Problem werden wird, wenn wir das weiter so machen.

Lucas:
[2:45:35] Ja, also klar, die Juniors merken es früher, weil die halt einfach keinen Job finden. Aber ja, stimme ich zu.

Dirk:
[2:45:40] Für die Juniors wird das unmittelbar ein Problem sein, aber das kriegt man ja wirtschaftlich super gut wegignoriert. Und dann ist das halt so. Aber das wird halt der Wirtschaft irgendwann auf die Füße fallen. Ja, definitiv. Aktuell alle immer von Fachkräftemangel und so, sind alle groß am Weinen. Das wird nicht besser dadurch.

Lucas:
[2:46:01] Ja, und ich finde eine Sache, die auch ich schon festgestellt habe, dass Leute, die eben Juniors sind oder sich noch in Ausbildung befinden, dann eben auch GPT benutzen, um Sachen zu generieren, dann vielleicht damit sogar erfolgreich sind, weil dann eine Lösung rauskommt, die korrekt ist. Und dadurch bestehen sie ihre Prüfung oder schaffen es vielleicht in ihrem ersten Job, schon die ersten Sachen zu erledigen. Aber, ähm.

Lucas:
[2:46:32] Eine der wichtigen Takeaways aus dieser Folge ist ja, ihr könnt eigentlich nur Sachen generieren, wo ihr den Wahrheitsgehalt selber kontrollieren könnt. Also ihr könnt nicht was generieren, was ihr nicht wisst, weil dann könnt ihr nicht wissen, ob das stimmt. Das heißt also, genau das kann aber der Junior oder die Junior ja nicht, weil die müssen das ja noch lernen. Das heißt also, die glauben das dann quasi unangesehen und lernen dann eben nicht, wie sie überhaupt da hingekommen sind. Und diesen Effekt, den werden wir, glaube ich, immer stärker, also auch sehr früh bemerken, dass Leute eben scheinbar irgendwie Code erzeugen können, aber die darunter liegenden Konzepte völlig fehlen. Und das wird auch, also, und da mache ich den Juniors auch gar keinen Vorwurf, weil die fühlen ja diesen Druck, dass sie halt liefern müssen, weil alle sagen, ja, hey, ich kann nicht mit diesem Shell-Skript ersetzen und.

Lucas:
[2:47:24] Das, dann ist ihre Reaktion, oh shit, dann muss ich jetzt ja auch dieses Ding benutzen und vielleicht machen sie es auch einfach, weil sie ein bisschen faul sind, das ist ja auch, verständlich, aber sie bauen dann halt diese ganze Skillset nicht auf, Weil ich würde halt sagen, wenn ihr irgendwas generiert, dann generiert Sachen, wo ihr prüfen könnt, dass sie stimmen. Und dann habt ihr vielleicht sogar Zeit gespart. Vielleicht. Also wie gesagt, Fragezeichen dran, aber es könnte sein. Aber generiert nicht irgendwas, was ihr nicht kennt und generiert auch nicht etwas, um zu lernen, wie es geht. Weil das ist der falsche Weg. Ihr könnt nicht gucken, ob das stimmt, was da steht. Und das sehe ich als ein Riesenproblem und ich glaube, wenn das sich so weiterentwickelt, wie es gerade läuft, dann ist das eine von den Sachen, die wir sehr stark merken werden, wo dann einfach Sachen, keiner mehr weiß, wie es funktioniert und ja, einfach große Fragezeichen an allem dranstehen.

Dirk:
[2:48:22] Ja, das, gut, also über all diese Negativpunkte, die wir jetzt die letzte, keine Ahnung, Stunde besprochen haben, kann man wahrscheinlich nochmal extra Folgen machen, aber das sind alles so Aspekte, die einem nicht so richtig offensichtlich werden. Und deswegen, ja, um nochmal so in den Anfang kurz zurückzukommen, bevor wir jetzt gleich zum Ende kommen, war es uns halt ein Anliegen, eben die Folge jetzt so aufzubauen und nicht ganz konkret über einzelne Sachen zu sprechen, weil dann diese Dinge irgendwie schnell runterfallen, weil man sich so in klein klein verliert. Aber diese grundsätzlichen Aspekte, die einfach existieren, die spürbare Konsequenzen für Leute haben, die kommen in so einer Diskussion konkret, findest du es in Ordnung, dir Bilder zu generieren für dein Brettspiel, die fallen dann einfach unter den Tisch und dann reden wir über ganz andere Sachen wieder. Und deswegen haben wir diese grundsätzlichen Dinge, die man einfach im Hinterkopf behalten soll und mit denen man sich dann, ja, kann sich jeder sehr gerne sein eigenes Bild machen, wie er damit umgehen möchte. Das soll hier gar nicht sein, bitte benutzt kein AI, sondern wir wollen euch einfach, der Lukas hat vor allen Dingen jetzt hier sowas vorbereitet, damit ihr ein umfassendes Bild habt, wo ihr nochmal genauer reinschauen könnt über die Links und euch ein Bild machen könnt, wie er da eigentlich so steht.

Lucas:
[2:49:42] Ja, absolut. Die letzten zwei Punkte machen wir noch schnell und dann können die Leute dann auch nochmal, ich weiß gar nicht, ich möchte gar nicht auf diesen Timer hier gucken. Genau.

Die versteckten Kosten von KI

Lucas:
[2:49:54] Vorletzter Punkt, die versteckten Kosten von AI, das war eine Zeit lang relativ stark in Zeitungen und Medien vertreten und ist aus der Aufmerksamkeit verschwunden. Das ist die, Weg, wie solche Sachen passieren in der Aufmerksamkeitsökonomie, aber sie sind nicht verschwunden, nur weil wir nicht mehr drüber schreiben. Es ist immer noch ein Problem, dass, also wir haben ja über dieses Training gesprochen, dass halt die Sachen klassifiziert werden müssen. Jetzt stellt euch vor, ein Ding, was halt einfach blutliebigen Text generieren kann, kann auch ganz schön furchtbaren Text generieren, über Sachen, über die wir alle nichts lesen wollen, die einfach furchtbar sind.

Lucas:
[2:50:32] Und dann muss irgendjemand, der der Maschine sagen, nein, lass das, weil das ist ja dieses Lernen. Du sagst dann, nein, das bitte nicht mehr generieren. Aber die Person, die das machen muss, die hat das trotzdem gelesen. Und über diese Menschen, die das gemacht haben, gibt es mehrere Artikel, haben wir auch verlinkt.

Lucas:
[2:50:53] Macht euch das klar. Da haben Leute einen hohen persönlichen Preis bezahlt. Da sind Leute, die fühlen sich nicht mehr dazu fähig, eine Beziehung mit anderen Menschen zu haben. Weil sie so furchtbare Dinge gelesen haben, dass sie einfach fertig sind mit der Welt. Und wie wir das halt so machen als Menschen, haben wir diese Aufgaben natürlich in Niedriglohnländer, wie wir das immer so beschönigend bezeichnen, ausgelagert, damit es nicht so, uns jetzt nicht so direkt betrifft und haben das schön weggeschoben und gesagt, komm, ihr macht das und ja, diese Leute leiden jetzt wahrscheinlich ihr ganzes Leben daran, dass sie da diese furchtbaren Texte, furchtbaren generierten Bilder, das, ja, da möchte ich gar nicht drüber nachdenken, was die da für Bilder gesehen haben, generiert haben, um da das rauszufiltern. Und wir haben dasselbe Problem auch bei so Sachen wie Content Moderation. Es gibt Leute, die halt in Social Media Sachen filtern als Menschen und sagen, nein, das ist kein Beitrag, der passieren sollte. Nein, nein, nein, tu das weg. Und diese Leute, die können ihr Gedächtnis leider nicht löschen und die haben das vielleicht dann für immer im Kopf. Und das ist ein Preis, den zahlen andere und nicht wir und auch das ist wieder eine Gerechtigkeitsfrage, die relativ eindeutig ist, würde ich sagen, dass da ein Problem existiert.

Dirk:
[2:52:15] Würde ich auch sagen. Wieder so ein Punkt, den man überhaupt nicht auf dem Schirm hat, dass das passieren muss, weil sonst würden nämlich alle möglichen Leute diese Dinge lesen müssen. Also das muss passieren, das geht nicht anders und nein, das kann keine Maschine tun, darum geht es ja gerade, die kann das nämlich nicht entscheiden. Also ja, sehr, sehr, sehr guter Punkt wieder auf der Liste von Dingen, die überhaupt nicht klar sind, wenn man sich da so von außen selbst eingehend damit beschäftigt, ist das etwas, was ganz, ganz hinten dran erst kommt und man schon sehr tief buddeln muss.

Sicherheit wird nicht ernst genommen

Dirk:
[2:52:56] Gut, und das nächste Thema ist so allgemein Sicherheit.

Lucas:
[2:53:25] Dass bei den Job-Cuts bei diesen großen Firmen, Die irgendwie immer als erstes entlassen werden, ganz merkwürdigerweise. Ja, da gab es ganz viele Fälle von bei allen diesen großen Firmen und darüber sollten wir uns Gedanken machen. Dabei ist es ganz wichtig, dass es dabei nicht um sowas geht, wie wir müssen die Maschinen davon abhalten, das ganze Universum in Paperclips zu verwandeln, was ja irgendwie so fast schon ein Meme ist, sondern es geht um konkrete Sachen. machen. Sicherheit davor, dass Falschinformationen generiert werden. Wir hatten zum Beispiel Fälle von Software, die Pilzerkennung macht, wo Pilze erkannt werden und dann haben sie giftige Pilze als Champignons eingestuft. Schade. Ist dann halt blöd für die Person, die sich darauf verlässt.

Lucas:
[2:54:09] Genauso Sicherheit davor, dass nicht pornografisches Material gegen Willen von Personen erstellt werden. Da sind natürlich vor allem wieder Frauen von betroffen, die gegen deren Willen dann einfach pornografisches Material erzeugt wird. Solche Sachen müssen unterbunden werden und diese Firmen, also viele dieser Firmen nehmen diese Herausforderung leider nicht ernst und wir müssen sie dafür verantwortlich machen. Wir müssen sagen, hey, das ist eure Aufgabe, ihr müsst dafür sorgen und das ist natürlich aus der Sicht eines Unternehmens, kostet das nur Geld und deswegen ist das natürlich das Erste, was geht, weil man möchte ja Wert erzeugen und nicht Geld bezahlen. Aber dieses Geld, das dürfen wir sie nicht sparen lassen. Die müssen dieses Geld investieren, damit solche Sachen überdacht werden. Das ist in der gesamten Technologiebranche ein wichtiges Thema, dass man bei allen Sachen nochmal bedenkt, was sind die Folgen für bestimmte Menschengruppen, was passiert, wenn wir das so machen und wir dürfen sie die nicht einfach entlassen lassen. Und wir haben da auch diese Awful AI Liste, die hat jemand.

Lucas:
[2:55:22] Kuratiert, jemand auf GitHub, das könnt ihr euch mal anschauen, da hat er einfach ganz viele von solchen Fällen gesammelt, wo Sachen schief gehen und ich finde, wir sollten da einfach mehr fordern von diesen Unternehmen. Die EU fängt da mit allen anderen bestimmten Stellen da ein bisschen mehr Druck zu machen, aber da sind wir noch viel zu soft und lassen da viel zu viel durchgehen. Und wir sollten immer Alarmglocken schrillen lassen, wenn diese Leute entlassen werden, weil dann ist irgendwas falsch. Und viele von denen, da gab es jetzt auch wieder ein Interview mit jemandem, der bei OpenAI als Safety Engineer gearbeitet hat, der gesagt hat, wir müssen am Anfang unterschreiben, dass wir nichts Negatives über diese Firma sagen. Und wenn wir das brechen, dann werden uns alle Aktien, die wir von der Firma über die Zeit erhalten, Zehntausende, Hunderttausende von Dollar, einfach abgenommen. Und sowas dürfen wir nicht zulassen.

Dirk:
[2:56:22] Ja, das ist ein sehr, sehr guter Punkt. Also Sicherheit ist jetzt nicht eben Sicherheitslücken irgendwo, der in Code generiert wird oder sowas, sondern die Sicherheit dieser Systeme, dass da keine schlimmen Sachen mitgemacht werden. Also wir hatten eben die schlimmen Sachen, die im Vorfeld rausgefiltert werden, aber dann kann man immer noch genügend Unfug damit machen und da muss es auch Sicherheitsmaßnahmen für geben und Schutzmechanismen für verschiedene Gruppen.

Fazit und Verabschiedung

Dirk:
[2:56:51] Gut, und dann haben wir es doch auch, oder?

Lucas:
[2:57:20] Eine Meinung zu bilden und Aber genau, das soll jetzt erstmal so eine Übersicht sein über, ja, die, was ist das eigentlich und was sind da so nicht offensichtliche Probleme mit und einfach, um euch dann nochmal die Möglichkeit zu geben, einfach nochmal zu reflektieren. Wie möchte ich mit dieser Technologie umgehen? Welche Sachen finde ich für mich in Ordnung und welche Sachen finde ich für mich nicht in Ordnung? Das ist so das Hauptding. Das heißt auch nicht, dass alles, ja, also... Alles, was ich sage, ihr könnt auch gerne sagen, hey, ich habe hier was gefunden, das stimmt so nicht, bin ich total offen für. Deswegen möchte ich ja auch die ganze Sache...

Dirk:
[2:57:58] Diskussionen seid ihr gerne eingeladen nach der Folge. Das ist das definitiv. Klar, es ist, glaube ich, rübergekommen, dass wir beide eine konkrete Meinung zu den Technologien haben. Aber trotzdem diskutieren wir super gerne mit euch darüber. Das soll so ein Denkanstoß, eine Einladung dazu sein, an sich etwas weiter damit zu beschäftigen. Deswegen ist es aber eine etwas längere Folge geworden. Aber nichtsdestotrotz ein kurzes Fazit, Lukas. Du hattest gesagt, ein ganz wichtiger Punkt ist, Text generieren ist nicht das Gleiche wie Dinge recherchieren. Da nochmal der Hinweis, diese ganzen Systeme sind Generatoren, also Mustergeneratoren hattest du es genannt. Das ist nicht das Gleiche, was man suggeriert bekommt. kommt, ich tippe da was ein und dann baut der mir so Dinge und zwischendurch schiebt der einen Trip und macht komisches. Nein, die generieren Dinge auf statistischen Modellen. Das ist nicht das gleiche, wie wir recherchieren. Denkt daran, es gibt diesen Elisa-Effekt, der suggeriert, wenn etwas sehr eloquent ausgedrückt ist, dann hat das, ist ja Kompetenz hinter, ist Intelligenz hinter, auch das ist nicht immer zwingend korrekt. Wir hatten besprochen, dass gerade die Bildgenerierung enorme Energie und soziale Kosten impliziert dann hatten wir den Begriff.

Dirk:
[2:59:25] Kennengelernt, dass das irgendwie alles kann, das Zeug auch das ist, um es mit dem Begriff, den du früher genannt hast Bullshit zu bezeichnen enorme Energiekosten, die wir da aus dem Fenster werfen, Müssen wir uns einfach fragen, ist es uns das wert, dass wir irgendein Kram generieren. Nichtsdestotrotz gibt es interessante Use Cases, die haben wir auch genannt. Die Frage ist, muss es dafür das sein, was GGPT gerade behauptet, diese LLMs, dann diese Artificial General Intelligence transhumanes Gedöns, am besten ausklammern.

Lucas:
[3:00:07] Ja.

Dirk:
[3:00:10] Genau. Es gibt aber nichtsdestotrotz nette Use Cases. Da hattest du dann nochmal gesagt, es ist auch möglich, eben kleine kuratierte Datensätze zu nehmen, die einen wesentlich geringeren Energie-Footprint haben, die auch weniger diese Probleme haben, dass sowohl Copyright-Material genutzt wurde, als auch, dass irgendwelche grausamen Dinge manuell kontrolliert werden müssen. All das hat man damit quasi raus und kriegt trotzdem sehr gute Ergebnisse für diese sehr speziellen Use Cases. Muss man eben vier Tools benutzen statt eins. Genau. Und dann ist eben das ein weiteres Problem, Erzeugung, massive Erzeugung von Missinformation, Fake News, diese ganzen Sicherheitsprobleme, die eben genannt waren. Das sind die anderen Probleme, die wir nannten. Das sind die Dinge, mit denen wir uns beschäftigen müssen und nicht, dass Skynet uns das Licht ausknipst. Genau, ja.

Lucas:
[3:01:10] Das ist eine sehr gute Zusammenfassung, Dirk.

Dirk:
[3:01:12] Das ist sehr schön. Könnte daran liegen, dass die hier von dir vorbereitet wurden.

Lucas:
[3:01:17] Ach Dirk, verrat doch nicht alles.

Dirk:
[3:01:19] Gut, jetzt haben wir drei Stunden auf der Uhr stehen. Es ist eine lange Folge geworden. Ich hoffe, es war trotzdem unterhaltsam und informativ. Es hat mir sehr viel Spaß gemacht, das mit dir durchzukauen und ich bin mega gespannt, was wir für Feedback bekommen werden. Das hört sich am Ende keiner an. Gut, wenn ihr bis hierhin gekommen seid, dann vielen Dank und ja, ich hoffe, es war trotzdem spannend für euch.

Lucas:
[3:01:46] Genau, jeder, der bis hierhin durchgehalten hat, kriegt ein Fleißsternchen. Genau. Wenn ihr irgendwas diskutieren wollt, ich bin auch mit in dem BGT Discord. Schreibt gerne einfach in dieses Folgenfeedback oder auch einfach so und wir können da gerne auch nochmal zu quatschen. Ich bin super gespannt, was ihr dazu denkt und genau, danke euch fürs Zuhören.

Dirk:
[3:02:13] Danke, dass du da warst, Lukas, und dir die Zeit genommen hast und die Energie in die Recherche gesteckt hast. Ja, danke für die tollen Shownotes und dann gibt's nächste Woche wieder ganz regulären Brettspiel-Content.

Lucas:
[3:02:24] Ja, genau, ich bin schon gespannt, ich höre zu.

Dirk:
[3:02:27] Super, vielen Dank fürs Zuhören, bis dahin, ciao, ciao.

Lucas:
[3:02:29] Bis dann, tschüss.

Soundboard:
[3:02:30] Das war's auch schon wieder bei The Board Game Theory. Danke fürs Einschalten und wenn ihr mögt, hören wir uns nächste Woche schon wieder. Für Fragen, Wünsche oder Anregungen besucht gerne unseren Discord, schreibt uns auf Instagram oder per Mail an info at theboardgametheory.de oder schickt eine Postkarte. Wir würden uns außerdem darüber freuen, wenn ihr uns bei Spotify, Apple oder wo ihr uns sonst zuhört, ein Abo und eine Bewertung da lasst. Vielen Dank und bis bald.

Soundboard:
[3:03:01] Mr. Theodor Twombly, Welcome to the world's first artificially intelligent operating system, OS-1. We'd like to ask you a few basic questions before the operating system is initiated. This will help create an OS to best fit your needs. Okay. Are you social or antisocial? I guess I haven't been social in a while, mostly because... In your voice, I sense hesitance. Would you agree with that? Was I sounding hesitant? Yes. Sorry for sounding hesitant. I was just trying to be more accurate. Would you like your OS to have a male or female voice? Female, I guess. How would you describe your relationship with your mother? That's fine, I think. Well, actually, I think the thing I always found frustrating about my mom is, you know, if I tell her something that's going on in my life, her reaction is usually about her. It's not about... Thank you. Please wait as your individualized operating system is initiated.