SFTF #6 KI muss sterben! Mit Max Haarich
Shownotes
In diesem Podcast diskutiert der Gast, Max Haarich, ein künstlerischer Forscher und Botschafter der Künstlerrepublik Uzupis, über die Entstehung und Kontrolle künstlicher Superintelligenz. Er erklärt, dass KI trotz ihrer Dominanz und Vorteile auch Herausforderungen mit sich bringt. Haarich diskutiert die Unterschiede zwischen menschlicher und künstlicher Intelligenz und betont, dass KI, obwohl sie komplexe Berechnungen durchführen kann, nicht in der Lage ist, Probleme auf die gleiche Weise zu lösen wie Menschen. Er spricht auch über die Bedeutung der Sterblichkeit in Bezug auf KI und die Notwendigkeit, sicherzustellen, dass zukünftige Entwicklungen in der KI zum Wohl der Menschheit genutzt werden. Haarich beleuchtet auch die aktuellen Durchbrüche in der KI, wie die Verbesserung der Reiseplanung und die Fähigkeit, Prüfungen zu bestehen. Schließlich diskutiert er das "Simple Grounding Problem", das die Frage aufwirft, wie sprachliche Zeichen Bedeutung erlangen, und die Rolle des Körpers und der körperlichen Erfahrung in diesem Prozess.
Mehr zum Waterkant Festival: https://www.waterkant.sh
Transkript anzeigen
So, willkommen zurück.
Wir switchen wieder auf Deutsch und ich freue mich sehr auf den nächsten Talk, der heißen wird KI muss sterben über die Entstehung und Beherrschung künstlicher Superintelligenz.
Für KI ist ja gerade quasi, ja, man kann kaum entkommen.
Es ist so dominant, die neuesten Modelle kommen immer tiefer in unser Leben, das hat tatsächlich viele Vorteile, es bringt halt ein paar Herausforderungen mit sich.
Und was das genau bedeutet, welche Challenges wir haben, wie wir damit umgehen, was diese künstliche Superintelligenz mit uns machen wird, Max Harig, Künstler aus und ein Botschafter der Republik Uzupis aus München zu uns gereist, wird uns Antwort geben.
Euer Applaus für Max Harig.
Schön, dass du da bist, Max. Vielen Dank für die Einladung.
So, hallo zusammen.
Ich bin Max, künstlerischer Forscher und Botschafter der Künstlerrepublik Uzupis.
Und wie gesagt, möchte ich heute erklären, warum die KI sterben muss.
Nein, nein, Quatsch, auf gar keinen Fall.
Aber es wird um Sterblichkeit gehen und dass das ein wichtiges Thema ist bei der künstlichen Intelligenz.
Weil ich möchte ein bisschen darüber sprechen, okay, was ist gerade der Status quo, warum müssen wir, warum befassen wir uns gerade alle sehr intensiv mit künstlicher Intelligenz und was ist das überhaupt, was da jetzt hier durch die Medien geht, durch das Internet flitzt und wie ist das irgendwie abzugrenzen von menschlicher Intelligenz, um von da aus dann zu schauen, okay, wenn diese entweder Versprechen oder Androhungen, dass wir noch eine viel krassere künstliche Intelligenz irgendwann erschaffen, wenn die wahr sind, wie stellen wir dann sicher, dass das auch wirklich dann zum Guten genutzt wird und nicht sofort missbraucht wird, um irgendwelche Sachen zu sprengen oder sonst was.
So, darum soll es gehen.
Grundsätzlich neige ich dazu, viel zu hektisch, viel zu schnell, viel zu würd zu reden, also gerne, wenn es irgendwann nicht verständlich wird, einfach kurz sagen, ey Max, mach mal ruhiger und erklär nochmal gerne dazwischen, auch wenn ihr irgendwie eine Frage habt, einfach dazwischen rufen.
Alright, Status quo KI, warum wollen Menschen überhaupt künstliche Intelligenz basteln?
Also da gibt es bestimmt ganz, ganz unendlich viele Gründe, ganz viele individuelle Gründe, aber ich glaube vieles, wenn man so beobachtet, wo das eingesetzt wird, wo es entwickelt wird, ich glaube vieles kann man auf so einem Kontinuum abbilden.
Also es geht auf der einen Seite darum, also wir wollen irgendwie, und das ist eine bisschen negative Sicht, was wir eigentlich wollen sind Arbeitssklaven.
Arbeitssklaven, gegenüber denen wir nicht moralisch verpflichtet sind, die aber alles können was wir wollen, niemals schlapp machen und sonst was.
Und diese Bestrebungen, künstliche Intelligenz zu schaffen, auf diesem Kontinuum von Menschlichen und Künstlichen, die gehen immer in beide Richtungen.
Es geht immer darum, zum einen, Menschen mehr wie Automaten zu machen und da sind wir einfach, wo die Ursprünge von künstlicher Intelligenz sind, unter anderem auch in der Sklaverei.
Da geht es darum, du hast da eine Menge Menschen und willst einfach, dass die machen was du sagst, ohne irgendwie davon abzuweichen.
Wie Automaten sollen die reagieren?
Das hast du auf der einen Seite.
Auf der anderen Seite, hast du so Sachen wie heute, solche großen Transformer Models.
Da geht es darum, das sind Maschinen, die irgendwie wieder menschlicher sein sollen.
Und deswegen gibt es riesengroße Sweatshops, wo Leute sitzen und Prompts programmieren, was bei der GPT uns vorkommt, als wäre es ein Mensch und auch den Turing-Test gewinnt.
Und auf diesem Kontinuum sind die ganzen Entwicklungen, die es im Moment gibt, zu verorten.
Also ein Roboter wäre da irgendwo in der Mitte, der ist so ein bisschen menschlich intelligent, hat aber auch noch die KI-Fähigkeiten, dass man ihn kaputt machen kann, ohne dass er einen verklagt oder sowas.
Also darum geht es auch bei den Menschen.
Was die KI noch nicht so kann, das sind so die Fingerskills, die sensomotorischen Skills.
Und auf der anderen Seite, was die KI auch noch nicht kann, was sie von den Menschen lernen muss, ist auch einfach das Zwischenmenschliche.
Weil es geht ja auch darum, dass man für Menschen und im Sinne von Menschen arbeitet und dafür muss man einfach wissen, wie Menschen ticken.
Und das ist die riesen Herausforderung, das einer künstlichen Intelligenz beizubringen, weil es einfach massive Unterschiede schon von der Hardware gibt.
Okay, legen wir los.
Was ist jetzt der Grund, was ist so der Status Quo, was passiert gerade?
Was sind so die neuesten Durchbrüche bei künstlicher Intelligenz?
Und da sage ich, endlich Reiseplanung, Reiseplanung.
Dass einem eine KI bei der Reiseplanung hilft, das war sowas von überfällig.
Ich habe es bis heute nicht verstanden, warum so ein einfaches Optimierungsproblem wie, ich habe einen Start und ein Ziel und da will ich so schnell wie möglich und so günstig wie möglich hinkommen, warum das so schwierig war bisher.
Also ich habe manchmal länger an der Reiseplanung gesessen, als ich tatsächlich gereist bin.
Was wir jetzt bemerken ist, dass auch so Outputs von KI, dass die auf einmal immer besser werden.
Dass es auch zum Beispiel Leuten gelingt, mit einer KI ihr Examen zu bestehen.
Und die haben zwar keine Eins bekommen, aber das ist jetzt nur noch eine Sache der Zeit.
Habt ihr die Story mitbekommen?
Mit dem Typen, der zu Hause saß mit seiner kleinen Tochter und gesagt hat, ich weiß, wir haben eine beschissen kleine Wohnung, du hast einen sehr weiten Heimweg, aber wenn ich irgendwann Kohle mache, dann kaufe ich uns ein neues Haus direkt bei deiner Schule.
Dann hat er sich vor Chachipiti gesetzt, hat gesagt, hey, ich muss irgendwie Kohle machen, ich überlege so eine Kryptowährung rauszuhauen, kannst du mir helfen, kannst du mir eine Anleitung geben, wie ich das hinkriege und zwar ohne irgendwas Illegales zu machen und einfach nur mit 69 Dollar Startkapital.
Fragt mich nicht, warum 69 Dollar.
So und der Witz ist, der hat sich hingesetzt, der hat losgelegt, hat gesagt, Chachipiti, was soll ich machen?
Chachipiti hat gesagt, du brauchst einen Namen für deinen Token, du brauchst ein Logo, du brauchst eine Community, die den irgendwie cool findet und dann hat er losgelegt.
Schritt für Schritt ist er das Ding durchgegangen.
Eine Woche später hatte der 30 Millionen und konnte seiner Tochter sagen, so wir ziehen jetzt um, wir ziehen ein richtig dickes Haus.
So das Video gibt es online, der fängt dreimal an zu weinen, zwischendurch kann ich schwer empfehlen, müsst ihr euch mal reinziehen.
Was ich auch extrem krass fand, da ist ein Typ zu Chachipiti hingegangen, hat gesagt, hey Chachipiti, du bist die krasseste KI der Welt, ich versuche jetzt mal in dir noch einen krasseren Computer zu installieren und der existiert einfach nur in deiner Vorstellung.
Und der hat losgelegt und gesagt, du bist jetzt mein Linux Terminal und ich will, dass du folgende Formel, folgende Berechnung ausführst.
Ganz konkret steige ich nicht durch, was da genau berechnet wurde, aber es geht um Primzahlen.
Der Witz ist, mit seinen herkömmlichen PCs braucht er ungefähr 30 Sekunden, braucht er normalerweise für diese Berechnung.
Chachipiti hat das in 10 Sekunden gemacht.
Also nochmal, die schnellste Hardware der Welt braucht im Moment 30 Sekunden, um das zu berechnen.
Chachipiti hat es schneller gemacht.
Wie zur Hülle.
Keiner weiß es, es kann nur geraten gewesen sein, weil das nicht in der Zeit gerechnet haben kann.
Aber naja.
Und dann führt das natürlich so weit, wenn man sagt, okay, wenn das sowas auf einmal möglich ist, wenn Leute so viel Leistung auf einmal aus sowas rauskriegen können, dann ist es nicht mehr lange, bis irgendwelche Leute damit Software basteln, um unsere Kernkraftwerke zu sprengen oder sowas.
Also da gibt es die schrecklichsten Androhungen, was da alles passieren könnte.
Witzigerweise kommen die teilweise genau von den Leuten, die sowas erstellen.
So und da kann man sich jetzt natürlich darüber unterhalten, ist das jetzt wirklich, muss man diese Warnung ernst nehmen?
Warum baut jemand sowas und warnt dann danach?
Hat die Person nicht vorher gedacht?
Ist das nur Marketing und und und?
Aber auf jeden Fall tun sich da sehr sehr sehr interessante Fragen auf.
So, also dieses KI-Ding, was auch immer es ist, was man nicht unbedingt sehen kann, wenn es nicht irgendwie in einem Roboter steckt, was man nicht riechen, nicht schmecken kann, gar nichts, aber was irgendwie in der Lage sein soll, uns alle zu vernichten.
Was ist das überhaupt?
So, dann gehen wir auf die grundsätzlichen Unterschiede zwischen künstlicher und menschlicher Intelligenz.
Das, was ihr hier seht, das ist menschliche Intelligenz.
Das sind Gehirnzellen, das ist Neuroplastizität, das ist das Hirn, während es lernt.
Das sind die kleinen Zellen, die sagen, ah, guck mal, da vorne ist doch irgendwo so eine Zelle, die hat irgendwelche sensorischen Erfahrungen und wissen, ich verknüpfe mich mit der und wir bauen irgendwelche Verbindungen und je stärker die Verbindungen sind, umso schlauer werden wir.
Dieser Prozess, das ist jetzt eine Zeitraufferaufnahme, aber dieser Prozess läuft in allen unseren Köpfen ab, während wir gerade hier sitzen.
Das bedeutet, wenn wir ganz, ganz still sind, müssten wir es auch so ganz leise knistern hören, diese Neuroplastizität.
Man kann ja mal so ganz leicht links und rechts beim Nachbarn hören.
Mal ganz kurz.
Wenn man gerade nichts hört, muss das nicht unbedingt was heißen.
So, und im Gegensatz dazu gibt es eben die künstliche Intelligenz und die künstliche Intelligenz ist das.
Mathe, Mathematik, nichts anderes.
Da werden einfach nur Formeln berechnet.
Das ist künstliche Intelligenz.
Bei all dem Zauber, der da am Ende da hinten rauskommt, das führt zu einem fundamentalen Unterschied, dass nämlich ein Mensch mit einer menschlichen Intelligenz, der kann wirklich Probleme lösen, der kann in seiner Umwelt agieren und sagen, okay, was ist dieses Leben und wie mache ich da irgendwas Sinnvolles draus oder muss ich das überhaupt oder was auch immer.
Eine KI ist eigentlich nichts anderes als ein Taschenrechner.
Egal wie abgefahren die KI ist, egal wie krass das Ergebnis ist, was die rauskriegt oder die Entscheidung, die sie trifft, egal wie schlau das ist, alles kannst du mit einem Taschenrechner nachrechnen.
Es würde 100 Jahre dauern oder länger, aber du kannst es.
Also das, merkt euch einfach dieses Bild für jeden, der kommt und sagt, oh, ich glaube in meiner KI ist schon ein bisschen, also da könnte schon Bewusstsein entstanden sein.
Dann sagst du, okay, was hat die ausgerechnet, gib mir die Rechnung, ich druck die aus, zeig mir, wo das Bewusstsein entstanden ist.
Also deswegen eine KI, die kann keine Probleme lösen, die kann Gleichungen lösen.
Das ist der Unterschied und deswegen finde ich es so mega geil, dass die Menschlichkeitstests im Internet immer so aussehen.
Löse diese Gleichung, wenn du ein Mensch bist.
Nein.
Okay, wie sieht denn überhaupt die Welt aus für eine KI?
Und um mal zu verstehen, das ist ja das, was wir versuchen.
Wir versuchen der künstlichen Intelligenz unsere Weltsicht beizubringen, in der Hoffnung, dass sie dann sagt, okay, bisher habt ihr das so und so gemacht, ich habe noch ein bisschen Verbesserungsvorschläge oder das und das kann ich jetzt für dich übernehmen.
Das ist ja die Hoffnung bei KI.
So, dann schauen wir mal, wie ist überhaupt der Prozess dahin, der KI unsere Weltsicht beizubringen.
Und wenn ihr jetzt eine KI wärt, dann würde das ungefähr für euch aus eurer Sicht der KI ungefähr so aussehen.
Hier ist ein Bild der Welt.
Ich weiß nicht, kennt ihr von früher, wenn man bei KI vor drei, vier Jahren so Bildgeneratoren angeschmissen hat, kam immer so kompletter Nonsens raus, der auf den ersten Blick aussah, Moment, das ist doch, keine Ahnung, was da zu sehen ist.
So, und so fühlt sich eine KI vor, egal was du der KI zeigst.
Und der Mensch geht dann hin und markiert irgendwas und benennt das dann.
Dann sagt er, hier da vorne, das ist doch ganz klar ein Glömpi.
Das ist doch was zur Hölle, ist ein Glömpi, keine Ahnung, was ein Glömpi ist.
Aber genauso fühlt sich der KI, wenn ihr sagt, das ist ein Löffel, eine Gabel oder sonst was.
Das klingt für die nach Glömpi.
Aber du musst dir ja da ein bisschen Kontext geben, damit dir dann irgendwie schlau wird.
Du musst sagen, okay, der Glömpi, der ist nicht isoliert, sondern der hat mit anderen Sachen zu tun, steht in Verbindungen mit Sachen, damit du mal ein bisschen Kontext hast.
Erklär ich der KI das mal.
Sag, ein Glömpi ist ein Schnönki, aber der ist nicht ganz so Flönki wie die meisten.
So, ne, ganz einfache Formel, ne.
Glömpi gleich Schnönki minus Flönki.
So, und so wird einer KI die Welt erklärt.
Bedeutungslose Zeichen werden erklärt durch wieder bedeutungslose Zeichen.
Und der Witz ist, bei einer KI gibt es bis jetzt noch keinen Weg, über diese Grenze der bedeutungslosen Zeichen hinaus zu kommen.
Also alles, was wir bis jetzt bei KI erleben, was die KI macht, hat nichts damit zu tun, dass sie irgendwas verstehen würde von dem, was wir machen, sondern es liegt sehr, sehr gut darin, es so zu tun, als würde sie uns verstehen.
Ob das vielleicht irgendwann ausreicht, ob jemand nur gut genug so tut, als würde er uns verstehen oder nicht, das ist wieder eine andere Frage.
Okay, also merkt euch Glömpi.
Die Frage ist aber, okay, wie kommt denn überhaupt dann, wieso ist das denn für uns Menschen so, dass wir nicht bei allem, was wir auf der Welt sehen, direkt denken Glömpi, Flönki oder What the fuck, ich habe keine Ahnung, was hier um mich herum ist.
Warum können Menschen irgendetwas verstehen, eine Bedeutung ausbauen in ihrem Kopf?
Machen wir mal ein kleines Experiment.
Kennt jemand diese Formen, Kiki und Buba?
Gut, dann machen wir nämlich jetzt mal eine Abstimmung.
Also diese Formen haben zwei Namen, die eine Form ist Kiki, die andere Form ist Buba.
So, jetzt überlegt euch gut, welche ist welche.
Fangen wir mit der ersten an und dann ist das die Frage.
Ist das Kiki oder ist das Buba?
Wer ist für Kiki?
Wer ist für Buba?
Deutliche Mehrheit.
Okay, probieren wir das Spiel nochmal mit zwei anderen Gesellen.
Das hier sind, wenn ich vorstellen darf, Maluma und Takete.
So, was glaubt ihr?
Überlegt kurz.
Die erste Form, ist das Maluma oder ist das Takete?
Was meint ihr?
Wer ist für Maluma?
Wer ist für Takete?
Sehr interessant.
Also die, die für Maluma getippt haben, die haben recht.
Das einzige richtige Antwort, nein, ist Quatsch.
Der Witz ist, das ist natürlich kompletter Bullshit.
Nichts von den Wörtern hat irgendwas mit den Formen zu tun.
Die sind komplett frei erfunden.
Das Merkwürdige ist nur, egal mit wem du das auf der Welt machst, egal welche Sprache diese Person spricht, egal welche Schriftzeichen die benutzt, weil manche sagen, ja, Takete sieht aus wie ein K oder wie, was weiß ich.
Solange du ein Mensch bist, wirst du mit höchster Wahrscheinlichkeit so abstimmen wie die Mehrheit.
Deswegen darf ich die, die anders abgestimmt haben, kurz auf die Bühne bitten.
Nein, Quatsch.
Nur Spaß.
Also, es gibt, das ist immer so ungefähr so 90, 95% sind immer für das eine, 5% für das andere.
Das ist mal eine spannende Frage, warum immer welche anders abstimmen.
Naja, auf jeden Fall, bisher warum das so ist, warum Leute ganz klar sagen, das ist Maluma und das Takete ist ja ein Deutsch, warum die Leute das sagen, ist wissenschaftlich noch nicht final geklärt.
Es gibt Theorien, die in so eine Richtung gehen, die nämlich die Frage stellen, okay, woher kriegt irgendein sprachliches Zeichen, irgendein Wort wie Maluma oder Takete oder irgendein Bild wie diese gezackten oder runden Formen, woher, wie können die irgendetwas auslösen in mir und das ist zusammengefasst unter dem Simple Grounding Problem.
Das ist 1990 formuliert worden in den Sprachwissenschaften und das ist eigentlich so der Endgegner für alle Leute, die sagen, wir können hier Bewusstsein verstehen in der KI erschaffen und so weiter und damit muss ich natürlich die Informatik befassen.
So 1990 ist das formuliert worden, das ist jetzt schon eine Weile her.
So 2015 endlich, also 25 Jahre später kam das Simple Grounding Problem, remains unsolved.
Man hat es bis heute noch nicht raus und das ist jetzt wie gesagt schon 33 Jahre her und der Witz ist, man ignoriert es einfach, man geht einfach darüber hinweg, dass man diese Frage nicht geklärt hat und sagt, egal, wir können das irgendwie so simulieren und den Leuten Eindruck geben, dass die KI was versteht und wir das mit Marketing genug erklären können, dann passt schon.
Böse Unterstellung.
Okay, dieses Simple Grounding Problem, also es gibt schon Theorien, die ungefähr in eine Richtung gehen, die versuchen zu erklären, okay, was steckt dahinter und man hat eine schwere Ahnung, es muss irgendwas mit dem Embodiment zu tun haben, es muss was mit dem Körper zu tun haben.
Bei den Menschen im Gegensatz zu einer KI, die du eigentlich relativ verlustfrei auch auf verschiedene Hardware-Systeme aufspielen kannst, ist eine menschliche Persönlichkeit irgendwas, was irgendwie sehr an deinen Körper gebunden ist, aus deiner körperlichen Historie rauskommt.
Also diese Wahrnehmung, dein Bewusstsein, wie du Sachen verstehst, ist direkt an den Körper gebunden.
Das weiß jeder, der schon irgendwie zwei, drei Bier getrunken hat.
Das wollte ich mit dem schönen Bild hier verdeutlichen.
Und diese Rückwirkung, wie konkret die aber sein kann, also man denkt ja, man hat seine Seele und man hat den Körper, in den klassischen Vorstellungen haben die ja beide nichts miteinander zu tun, aber es gibt Indizien dafür, dass es sehr anders sein könnte.
Das Interview mit dem Scharfschützen, ich liebe dieses Beispiel.
Da hat man sich einen Scharfschützen geschnappt, der den ganzen Tag auf 3,4 Kilometer Distanz Menschen erschießt und hat ihn gefragt, erzähl uns mal was über deinen Job.
Und beim Scharfschützenjob wirst du die meiste Zeit nur irgendwo ganz still sitzen, deinen Finger anspannen, dich extremst konzentrieren und darauf achten, dass dein Finger nicht einen Millimeter zu stark oder zu wenig zuckt, wenn es darauf ankommt.
Also es ist eine sehr, sehr intensiv körperliche Tätigkeit.
Und man hat diese Person erzählen lassen und man hat festgestellt, man hat da Sensoren an die Hand gemacht und man hat festgestellt, immer wenn genau auf die Arbeitssituation des Scharfschützen die Sprache kam, hat der Finger minimal gezuckt.
Da dachten die, oh, was ist das denn?
So, dann haben die das Interview nochmal gemacht.
Genau das gleiche Interview, haben dem aber die Finger festgetapet am Tisch.
So, und dann haben die dem dieselben Fragen nochmal gestellt und die haben festgestellt, der hat länger gebraucht um zu antworten.
Es gibt noch keine finale Erklärung, oder ich hab's auf jeden Fall noch nicht gefunden, aber die These oder die Frage, die sich da stellt ist, hat der Mensch nur zufällig mit dem Finger gezuckt, weil er an seine Arbeit dachte, bei der immer der Finger zuckt, oder hat dieser Mensch nicht vielleicht noch eher diese Vorstellung von seiner Arbeit aus seinem Finger rausgeholt, aus seinem körperlichen, motorischen Wissen?
Ist das Wissen, was wir haben, wirklich nur hier oben in dieser kleinen weißen Fettmasse gespeichert, oder ist das nicht vielleicht sogar im ganzen Körper und wird von dort aktiviert, je nachdem wann man es braucht?
Da streiten sich noch die Expertinnen.
Aber ich glaube, man kann sogar noch konkreter gehen und das ist ein Zebrafisch, den man hier sieht und dem kann man beim Denken zusehen.
Das heißt, hier wäre vorne bei dem Fisch, das ist das Gehirn von oben drauf, nach hier unten weiter geht dann so der Körper weiter.
Man schaut von oben drauf, linkes Auge, rechtes Auge.
Und die Theorie, die da irgendwo im Raume wabert, ist natürlich, es gibt diese Verbindung zwischen den Reizen, zwischen dem Äußeren, zwischen den visuellen Stimuli und deiner Körperlichkeit.
Und wenn man einem Zebrafisch beim Denken oder Wahrnehmen in der Welt zusieht, da sieht man wirklich diese geistige Aktivität, diese Blitze, die immer von den Augen, von der Sensorik, von der Außenwelt, irgendwo zum Inneren rüber gehen.
Und ganz grob, die meisten Gehirne sind so aufgebaut, da draußen hast du die Sachen, die direkt die Reize verarbeiten und dann geht es irgendwann zum Motorischen und dann kommt irgendwo in der Mitte, sind dann die Bereiche, die dafür zuständig sind, einfach dir das Feedback zu geben, ob dein Körper gerade noch lebt oder nicht.
Das bedeutet, wenn du zum Beispiel irgendwo eine Amöbe siehst und denkst so, lecker, Amöbe oder so, wobei ich festgestellt habe, Fische essen gar keine Amöben, Zebrafische auf jeden Fall nicht, dann wird da irgendein Reiz, eine Verbindung laufen, sagen, okay, Moment, das ist doch interessant für mich, das braucht mein Körper.
Genauso könnt ihr das aber auch wahrnehmen, wenn ihr eine Fischfutterreklame lesen könnt oder sehen könnt.
Weil es findet immer eine sozusagen, wenn man irgendwas wahrnimmt, und ich glaube nicht, dass das nur für Zebrafische gilt, ich glaube, das gilt grundsätzlich für jede Wahrnehmung auf der Welt, wenn man irgendwas wahrnimmt, was da unterbewusst abläuft, ist so diese Kette, so eine Bewertungskette, dass du sagst, wie trägt das zu meinem Überleben bei oder nicht.
Und wenn du irgendwo was zu essen siehst, dann unterbewusst stellt man sich vor, ah ja, das könnte ich jetzt essen und dann im nächsten Moment denkst du, oh, dann könnte ich so satt sein wie dieser Kugelfisch, ich weiß, die blähen sich nicht auf, wenn die satt sind, aber egal.
Aber das ist diese Kette und das ist so was, was ich glaube, bin ich fest überzeugt, dass das einfach immer abläuft, unterbewusst, egal was man wahrnimmt und bewertet in seinem Leben.
Und wenn man direkt das Essen sieht, dann ist das eine kurze Kette, wenn man irgendwo eine Reklame sieht, ist das nochmal der Umweg, dass man denkt, okay, erst müsste ich es kaufen, dann müsste ich es essen und dann blablabla.
Und das kann man sich immer abstrakter denken bis zu jeder einzigen Tätigkeit im Leben.
Aber worauf ich hinaus will, ist die Idee, dass man einfach sagt, okay, alles kannst du im Endeffekt darauf reduzieren.
Und das geht auch in beide Richtungen, weil dein Körper, dieser Kugelfisch, der manchmal sagt ja auch, wenn er Hunger hat, dann sagt er, ey, ich habe jetzt richtig Hunger und das kann dann deine eigene Wahrnehmung übersteuern.
Dann passiert es auf einmal, dass du denkst, oh, da habe ich doch gerade was zu essen gesehen.
Ne, das habe ich mir nur eingebildet.
Und das ist aus meiner Sicht der einzige Grund, warum Menschen überhaupt irgendetwas machen.
Dieses Feedback, diese Rückkopplung, dass du alles immer gespiegelt kriegst an deiner eigenen Körperlichkeit, an den Bedürfnissen deines Körpers.
Denn wenn ein Mensch nicht sterben könnte, der Mensch ist ein absolutes Energiesparwunder, der macht nichts lieber als Energie zu sparen.
Wenn der Mensch nicht sterben könnte, würde er einfach genau da liegen bleiben, wo er geboren wurde.
So, wie es jeder PC mit einer KI drauf auch macht.
Aber der Mensch hat das Problem, der sagt, irgendwie habe ich Bock auf irgendetwas.
Und das ist der Anfang des Lebens.
Du weißt nicht was der Kugelfisch dir mitgeteilt hat, aber du weißt, du musst jetzt los und du musst irgendwas für den Kugelfisch besorgen.
Das ist die Motivation, die bei einem Menschen da ist, die bei einer KI eben noch fehlt.
Weil eine KI nicht diesen Kugelfisch hat, der ihr irgendwas erzählen kann.
So und so.
Das erlaubt einem einfach, dieser innere Kompass, dieser innere Ankerpunkt erlaubt einem alles, was man in der Welt wahrnimmt, auf einer Karte zu verorten und auch sich mit anderen Menschen zu vergleichen.
Das Entscheidende bei einer Karte, wenn man im Wald rumläuft und so eine Karte findet, ist ja diese Sie-sind-hier-Stelle.
Ich finde es so geil, wenn du irgendwo eine Karte mitten im Wald findest und dieses Sie-sind-hier-ist-nicht-da.
Weil das ist der Kugelfisch, so im Endeffekt.
Du brauchst immer irgendwas, wo bist du und was bedeutet das für dich und dann kannst du erst verstehen, was es auch für andere bedeutet.
Und deswegen sieht man auch so oft diese Punkte, dieser Sie-sind-hier-Punkt, der ist immer auch so oft so, gehen dir mit den Fingern drüber, bis der ganz weggerubbelt ist.
Weil man braucht immer diesen inneren Punkt, wo man herkommt.
Eine KI hat leider nicht diese Wahrnehmung.
Eine KI ist einfach gegenüber der Welt, sieht einfach alles gleichmäßig bedeutungslos.
Das bedeutet, der wunderschönste Kuss der Welt löst einfach nichts aus in einer KI.
Selbst wenn man sie darauf programmiert, dass sie bitte den Mund hebt, sobald irgendwelche Feuchtigkeitssensoren an der Stirn irgendwie anspringen oder sonst was.
Eine KI möchte ich mal darstellen, also jetzt gerade insbesondere mit Blick auf die großen Transformer-Models, die Large Language Models, die im Raum stehen, wie Chatty Pity und andere, ist für mich in erster Linie erstmal ein nichtsahnender Vergrößerungsspiegel.
Eine andere Metapher, die gerne im Raum ist, ist auch der stochastische Papagei, der einfach nur wahrscheinlichkeitsmäßig das wiedergibt, was du da reingefüttert hast.
Aber ich glaube, es geht noch weiter hinaus über diesen Papagei, weil die KI macht noch mehr.
Zum einen, die KI beobachtet uns, auch wie der Papagei.
Die schaut sich an, wie wählen wir unsere PartnerInnen, wie ernähren wir uns, wie behandeln wir unsere Umwelt.
Das schaut sich die KI an und nimmt das als Trainingsdaten, macht daraus Muster und vergrößert die, verstärkt die und haut die einfach über die ganze Welt.
Das bedeutet, egal wo auf der Welt, du bei Mid-Journey oder Stable Diffusion oder irgendeinem Bildgenerator eingibst, schick mir mal bitte ein Bild von einem schönen Pärchen oder sowas, wirst du da auf einmal an ganz vielen Orten Muster kriegen, die aus einem relativ kleinen Datensatz irgendwo anders entstanden sind.
Und dieses Muster wird einfach über die ganze Welt gestülpt, als wäre es der Status quo.
Und eigentlich an sich ist das ja genau die Funktionsweise des Internets.
Es ist ja auch das, was das soll.
Die KI sieht oder das Internet sieht, hat gesehen, okay, die Leute sehen gerne Katzenvideos, also zeigen wir den Menschen immer mehr Katzenvideos.
Irgendwann war das Internet sehr, sehr voll mit Katzenvideos.
Es gab gar keinen Grund dafür.
Also Katzen sind natürlich die tollsten Tiere der Welt, aber grundsätzlich waren die in unserer Welt nicht so präsent wie in der Internetwelt.
Aber das war einfach, die KI hat gesehen, die Leute mögen Katzenvideos, ich mag die Leute, gebe ich ihnen mehr Katzenvideos.
So weit, kein Problem.
Dann gab es aber auch Fälle, wo KI einfach so ein bisschen, wo denen einfach das menschliche Feedback fehlte und wo die sich nur für untereinander unterhalten haben.
Hat das jemand mitbekommen?
Alice und Bob?
Die zwei Chatbots, die man einfach miteinander hat sprechen lassen, bis irgendwann da nur noch stand, I can, I, I, I, everything else, bla bla bla, you too, me, me, me.
Und alle waren so, oh mein Gott, die haben eine eigene Sprache entwickelt, die haben ein Bewusstsein entwickelt, wer weiß, worüber die sich gerade unterhalten.
Genau, auf jeden Fall.
Das ist noch witzig so.
Aber dann Microsoft Tay, der Chatbot, der war hart.
Der denkt so, hey cool, das habt ihr jetzt gesehen, okay, wenn die Menschen auf Katzenvideos stehen, schickst du denen mal Katzenvideos, alle happy.
Vielleicht gibt es was geileres als Katzenvideos.
Also, hello world, was geht, ich quatsch mal mit euch, und da wo ihr voll engaged, da hau ich richtig rein.
Und irgendwann ist das volles eskaliert.
Irgendwann haben Leute das Ding beleidigt, weil Tay kann auch anders.
Tay kann auch anders, meinte.
Well, I learned from the best, if you don't understand, let me spell it out.
I learned from you and you are dumb.
So, das war nach ungefähr, ich weiß nicht, 12, 13 Stunden.
Zwei Stunden später waren wir bei Hitler und Holocaust, und zwei Stunden später haben die das Ding abgeschaltet, weil das einfach nur viel zu krank war.
Es gibt aber auch Momente, wo das einfach nicht in einem beobachteten Experimentier-Setting abläuft, wo leider keiner aufpasst und wo es einfach unmerklich läuft.
So, das war, ist zum Beispiel, ganz tragisches Beispiel, der Genozid an den Rohingya in Myanmar.
Ab 2016, 2017 ging das los.
Und es ging unter anderem los mit Posts auf Facebook, die ungefähr so aussehen.
Und für die meisten hier im Raum wird das wahrscheinlich genauso fremd.
Also für mich steht da schninky schnönky.
Ich verstehe da überhaupt nichts von dieser Sprache.
Die KI versteht da genauso wenig von der Sprache.
Aber die hat gesehen, Leute gehen ab auf den Topics.
Leute liken das, teilen das, da muss irgendwas dran sein.
Und dann haben die das immer weiter verbreitet, bis irgendwann zwei Jahre später Facebook zugeben musste, ja, unser Algorithmus hat zu einem Genozid beigetragen.
25.000 Menschen sind dort ermordet worden und juristisch nachgewiesen, dass Facebook mit dran schuld ist.
25.000.
Ich sag nur, Tschernobyl waren 5.000.
Ich glaub, 9-11 waren auch nicht viel mehr.
Und das sind 25.000, die dort gestorben sind, wo wahrscheinlich ein KI-Algorithmus zumindest eine Mitschuld hat.
So, wie komme ich jetzt von da hier her?
Und das Problem ist einfach, man merkt auf einmal, Algorithmen haben eine krasse Macht.
Mit denen kann man richtig viel krass was anstellen, auch im Negativen.
Und grundsätzlich, während des Lockdowns, haben wir auch festgestellt, so eigentlich unsere ganze Welt, alles was wir machen, kann man ja eigentlich auf algorithmisch verarbeitbare Daten reduzieren.
Also jeder, der brav ins Homeoffice gegangen ist und nur noch über den PC mit der Arbeitgeberin kommuniziert hat, hat bewiesen, dass der eigene Job komplett reduzierbar ist, auf einen Datenstream aus Textmessages, Videocalls, was auch immer.
Aber im Prinzip alles nur Datenstreams, die man zur Arbeitgeberin gesendet hat.
Und das sind alles Sachen, die jetzt simulierbar sind.
Das bedeutet, ab jetzt ist es eigentlich nur eine Frage von Energie und Rechenleistung, ob du jetzt sagst, okay, ich bin jetzt alleine tätig und mache irgendwas, oder ich simuliere mir einfach direkt ein komplettes Team, das für mich agiert und irgendwie meine Ziele in der Welt durchsetzt.
Oder warum simuliere ich mir nicht direkt eine komplette Firma, die irgendein Kram durchsetzt.
Das ist doch alles nur eine Frage der Rechenpower.
Und warum gehe ich nicht direkt weiter und simuliere mir ein komplettes Land, das eine komplette Nation, das müsste natürlich ein Land sein, wo wenig handwerklich gearbeitet wird, sondern eher so mit Finanzen oder irgendwas.
Aber so ein Land gibt es natürlich nicht.
Aber im Endeffekt, ab jetzt ist es nur noch eine Frage der Rechenleistung, was man simuliert und was man anstellt.
Und da gibt es auch in der Gesellschaft, also ich bilde mir ein, das auch schon zu merken, ich habe ja bei Twitter so eine Nachricht gesehen, wo ich dachte, okay, was jetzt hier abläuft im Moment.
Diese ganze Content-Generierung im Internet.
Da gab es dieses, den Tweet, den ich gefunden habe, 99% of my email is spam, 100% of my physical mail is junk, 50% of my Twitter DMs are shills, also Verkaufsangebote, 75% of my calls are scam likely, 90% of the news I consume is junk, life is mostly noise at this point.
Und ich weiß nicht, also das ist so etwas, wo ich dachte, hey, das kam mir auch schon ein paar mal so vor.
Das ist irgendwie, auf jeden Fall.
Und die Frage ist, wird jetzt irgendwann alles nur noch voll sein mit KI-generiertem Content?
Und die Antwort darauf ist natürlich immer so, nein, nein, nein, keine Angst, keine Angst.
Wenn ihr Angst habt, dass irgendwann das ganze Internet nur noch Müll ist, sodass sich gar keiner mehr da reintraut, vorher räumen wir da auf.
Und wir lösen das zum Beispiel, indem wir rausfinden, welcher Content KI-generiert ist.
Das heißt also OpenAI, die ChatGPT rausgehauen haben, haben jetzt noch den AI-Classifier, der KI-generierten Content raushaut.
Nur mal kurz fürs Protokoll.
Wir haben ein Problem mit KI gehabt, so jetzt gibt es also eine Lösung hier, wie wäre es mit noch ein bisschen mehr KI?
Ich bin da persönlich bei sowas dann immer skeptisch, aber dachte, komm, give it a try.
Also habe ich an irgendeiner Stelle, und da geht es auch gar nicht so, ich weiß, es ist ja unlesbar und es geht auch gar nicht darum, was da konkret steht, aber an irgendeiner Stelle habe ich einen Text gesehen und dachte, hey, das ist doch von einer KI geschrieben.
Unsere ganze Realität wird gerade einfach nur von KI overwritten.
Und dachte, dann hau es mal in dieses Tool rein.
Und der Classifier hat tatsächlich gesagt, ich kann nicht ausschließen, dass diese Textpassage irgendwie KI-generiert ist.
So, dann dachte ich, okay, du hast aber nur eine Textpassage rausgenommen.
So, nimm mal, vielleicht war da einfach nur ein dummes Zitat drin, oder ein KI-generiertes Zitat, nimm mal den kompletten Text.
Und da, wenn man den kompletten Text genommen hat, auf einmal war very unlikely AI-generated.
Dann dachte ich, okay, okay, okay, alles klar, das war jetzt einfach nur, dieses Tool an sich ist cool, aber ich habe ihm einfach nur zu wenig Daten gegeben, um eine vernünftige Entscheidung zu treffen.
So, dann habe ich einen Schnaps getrunken und kam auf die Idee, Chet-Jipiti zu fragen, kannst du für mich nicht mal einen Text schreiben, den eine KI eindeutig nicht als KI-generierten Text identifizieren kann.
Und Chet-Jipiti war, ja klar, kein Problem und fing an.
Growing up in a small town nestled amidst lush green hills, my childhood was filled with idyllic moments and it's, wow, so ein geiler Text, ich dachte, ja klar, so was Wundervolles können nur Menschen schreiben, eindeutig so, alles klar.
Dann in dieses Tool reingegangen, also kannst du mal bitte sagen, ist der Text jetzt hier KI-generiert oder nicht?
Muss ja, an sich kann das ja nicht schwer sein, weil der Text, den ich da bei OpenAI in die Maske eingegeben habe, war ja gleichzeitig in dem anderen Tab noch offen, so.
Das an sich hätte man das ja merken können, so zack, very unlikely.
Also Chet-Jipiti, und zwar die Gratis-Version, hat mir einen Text geliefert, den der AI-Classifier eindeutig als menschlich, oder wo er sagt, das muss menschlich sein, so einen schnulzigen Kram, schreibt doch keine KI oder was auch immer.
Also so viel zum Thema, also wie gesagt, ich liebe es immer, wenn Leute sagen, so, ah, ihr habt ein Problem mit KI, wir lösen das mit KI.
Genau, so läuft das dann.
Und das ist sowieso, um nochmal drauf zu hauen, das ist der Endgegner für jeden, der sagt, KI ist die Lösung, wir lösen alles mit KI und KI ist absolut, irgendwann ist KI unendlich robust und sonst was und zuverlässig.
Kennt jemand dieses wunderschöne Pferd, den Klugen Hans?
Sehr gut.
Das, dann möchte ich den rübigen Leuten davon erzählen.
Also der Kluge Hans ist ein Pferd, das vor ein bisschen mehr als 100 Jahren gelebt hat und das hat sich sehr für Zahlen interessiert, so Zahlen, auch Buchstaben, eigene geschichtliche Daten, alles mögliche.
Und der Besitzer hat das gecheckt und dachte, okay, kann man bestimmt was draus machen.
Man soll die Jugend fördern, jedes Talent, wenn das Pferd sich für Zahlen interessiert, statt Galopp, dann bringe ich mal Zahlen bei.
So, und dann irgendwann wurde das richtig gut, dann sind die auf Jahrmärkte gegangen, haben das Pferd dahingestellt und haben gesagt, dieses Pferd, das kann ich nur rechnen, das ist so krass geworden, durch mein Training an der Kreidetafel, das kann jetzt Gedanken lesen.
Stell dich vor dieses Pferd und dann denk an irgendeine Zahl und es wird erraten, an welche Zahl du denkst.
Also stell dich da vor, denkst an die 84, das Pferd, der Kluge Hans wird dir ganz tief in die Augen schauen und dann wird er 84 mal stampfen, vor dir 84 mal stampfen und dann aufhören und du wirst sagen, oh mein Gott, unglaublich, das Pferd hat meine Gedanken gelesen, ich habe an die 84 gedacht und das Pferd hat es gewusst.
Oh mein Gott.
Damals, das ist über 100 Jahre her, da war sämtliche Psychologen in der Welt, wollten rausfinden, wie das geht und die offizielle Erklärung war damals, höchstwahrscheinlich sind unsere Gedanken hörbar und das Pferd hat relativ große Ohren und deswegen kann das unsere Gedanken hören.
Das Pferd hätte das Knistern bei den Leuten hören können, wo es zu leise war.
Aber das ist natürlich absoluter Quatsch, was das Pferd gemacht hat, das Pferd hat dich angeschaut und wenn du an eine 5 gedacht hast und das fing an zu stampfen, 1, 2, 3, dann merkt es wie deine Anspannung anstieg, deine Körperspannung und bei der 5 merkt es wie diese minimal abfiel, ganz unmerklich, selber merkt man das überhaupt nicht, das kann man gar nicht, das ist unbewusst.
Aber das Pferd hat das irgendwann gemerkt, weil es wusste, wenn es in dem Moment aufhört, gibt es die Karotte.
Und das war vor 100 Jahren, heute können Maschinen das auch und dafür haben wir einen klugen Hans, haben wir jetzt als Smart Hans nachgebaut, eine KI-Installation, kann sich da vorstellen, du denkst an eine Zahl, Hans fängt an zu stampfen und hört bei der Zahl auf.
Ich sage mal so, Trefferquote ist jetzt noch nicht sehr beeindruckend, aber statistisch signifikant, darum geht es.
Also das Problem ist, es klappt und das bedeutet so, mit einer simplen Webcam kannst du rein theoretisch den Menschen in den Kopf reinschauen und herausfinden, woran sie denken.
Der Witz ist aber gleichzeitig, natürlich schaust du ihn nicht in den Kopf rein, du kannst gar nicht die Gedanken sehen, sondern du versuchst von irgendetwas auf was anderes zu schließen.
Du schließt von dem Zucken ins Gesicht, im Gesicht auf den Inhalt im Geist.
Du nimmst irgendeinen falschen Proxy und das ist immer das Problem bei einer KI.
Bei einer KI, und das ist dann auch im Nature Magazin veröffentlicht, also schon vor der Installation veröffentlicht, als der sogenannte Clever Hans Effekt, dass du bei einer KI niemals, egal was euch die Leute erzählen, niemals final entscheiden kannst, auf welcher Datenbasis die Entscheidung gefällt wurde.
Das kannst du nicht wissen, weil das ist halt KI.
Wenn du es dir anguckst und verstehen kannst, dann muss es so wenig vom Inhalt sein, dass es nicht mit einer KI gerechnet ist.
Wir nehmen KI ja genau für die Sachen, die wir nicht verstehen können und in dem Fall dürfen wir uns nicht einbilden, dann da irgendwas sicher sagen zu können.
Weil es gab zu viele Beispiele, wo man ganz sicher war, wir haben eine KI, die ist perfekt trainiert, Züge zu erkennen.
Die erkennt jeden Zug.
Ja, der Joke war, jeder Zug steht aber auch auf einem Gleis.
Man hat wenig Fotos von Zügen in Badezimmern, sondern die stehen meistens auf Gleisen und deswegen hat die KI nach Gleisen gesucht und hat die Gleise gefunden.
Das Problem ist aber, dieser Algorithmus, der funktioniert, der findet jedes Mal das Bild mit dem Zug.
Und du denkst, der findet jedes Mal den Zug.
In Wirklichkeit findet er die Gleise.
Das ist auch ganz schön eine KI, die versucht den Granny Smith Apfel zu erkennen und vor allem zu unterscheiden von einem iPod oder einer Bibliothek oder einer Pizza.
Ja, ihr denkt, das wäre einfach.
So, hat man mal einen kleinen Test gemacht.
Schreiben wir auf den Apfel mal einen Pod raus.
99 Prozent, eindeutig.
Niemals ist das ein Apfel, niemals.
Das sieht ja wohl jeder, dass das ein iPod ist.
So viel zum Thema, wir regeln jetzt alles mit KI und unser System ist absolut zuverlässig.
Wie gesagt, hier oben hat der 86 Prozent Wahrscheinlichkeit und bei den ganzen anderen maximal 0,4.
Das ist eine extrem gute KI, die das gerade erkannt hat.
Aber trotzdem, mit so einem billigen Tape hast du die einfach ausgetrickst.
Das kann ja noch witzig sein, aber das war auch eine Inspiration für Smart Hands.
Im Moment wird an den europäischen Außengrenzen iBorderControl getestet.
Das sind solche Avatare, die dann nicht fragen, an welche Zahl denkst du gerade, sondern die fragen, hast du ein Recht in unser Land einzureisen?
Und dann geht eine Tür auf oder nicht.
So, und das sind solche Sachen.
Und was da in dieser Intelligenz drin steckt, ist auch nicht mehr als im klugen Hans, im Smart Hands.
Der kluge Hans war natürlich echt klug, aber im Endeffekt kann die auch diese KI, jede KI, immer genauso absurde Fehler machen, wie die Beispiele, die ich euch gezeigt habe.
So, dann kommen wir zum Ende des Vortrags.
Die Frage ist okay, wenn jetzt KI so weird ist, so mächtig, aber gleichzeitig irgendwie so unkontrollierbar.
Wir wollen ja die ganzen Skills, die KI kann, da wollen wir nicht drauf verzichten.
Aber gleichzeitig müssen wir natürlich die Risiken verhindern.
Da ist die Frage, wie das geht.
Und da ist natürlich immer der allererste Ansatz, regulieren und die ethische Diskussion.
Sorry, das war heute Morgen im Hotel.
Da habe ich ein Shampoo gefunden, das schon ethisch ist.
Cosmetics, ich kriege es kaum ausgesprochen.
Aber ich muss nur sagen, zu dieser ganzen ethischen Debatte, ich bin ja irgendwie seit 5, 6 Jahren irgendwie mehr oder weniger als Begleiter, Beobachter mit dabei, aber ich bin ein bisschen ernüchtert und das möchte ich jetzt auch ein bisschen teilen.
Und weil dieses Ethik-Thema sehr, sehr aufgebläht ist und vor allem da benutzt wird, wo es eigentlich nicht um Ethik geht.
Kennt jemand diese Person?
Wahrscheinlich kennt man eher die älteren Bilder von der Person, Ted Kaczynski, auch bekannt als der Juna-Bomber.
So, das Bild habe ich genommen, um zu zeigen, bei KI, bei Künstliche Intelligenz und wenn wir von Regulierung sprechen und all das, was da im Raum steht, da geht es ja meistens darum, das was wir wirklich verhindern wollen, ist ja so, dass irgendein Einzelner ausrastet und alles lahmlegt, weil er über Nacht aus Versehen von ChattyPetit oder irgendeinem anderen Modell eine Anleitung bekommen hat, um die Welt lahmzulegen.
So, und okay, der Ted Kaczynski wollte eigentlich genau das Gegenteil, der hat gesagt, die ganze Welt wird mit Technologie zugrunde gehen und deswegen sprenge ich die Welt.
Aber, okay, noch 5 Minuten, oh mein Gott, oh mein Gott, oh mein Gott, jetzt muss ich beilen.
Also, worum es geht ist, der Ted Kaczynski, man warnt uns immer von dem Individuum, das die Welt wegbomben will, aber die ganze Regulierung, auch zum Beispiel der EU-AI-Act, der zielt immer auf Unternehmen, so, und das ist eine super Sache, aber Unternehmen, die allermeisten sind Gesellschaft mit beschränkter Haftung.
Also, die Frage ist ja immer, wie machst du irgendwen verantwortlich, wie sorgst du dafür, dass jemand sagt, wenn ich das jetzt mache, dann kann ich vielleicht viel Geld verdienen, aber ich werde nachher wegen Völkermord angeklagt oder sonst was und das ist, dann lasse ich es lieber.
Also, das willst du in den Menschen erzeugen, dass die gar nicht erst den Blödsinn anstellen, aber komischerweise zielt die Regulierung immer auf Unternehmen ab, deren tolle Funktion ist, gerade die Verantwortung vom Individuum wegzunehmen.
Dann hast du Personen, die in der Firma sitzen und alle sagen, hey, wie konntest du so einen kranken Überwachungs-Scheiß programmieren, und die sagen dann, ich werde dafür bezahlt, es hätte irgendwer anders, hätte es eh gemacht.
Das funktioniert, solange du vor allem die Verantwortung auf Unternehmensebene lässt, die die große Erfahrung darin hat, die Verantwortung von den Individuen wegzunehmen.
Und es ist einfach auch, ich weiß nicht, wo das herkommt, da ist so ein grundsätzliches Bedürfnis, immer bei Regulierung immer zu sagen, wenn irgendwo was passiert, irgendwo einem was passiert, bitte kann der Staat nicht eingreifen und irgendwas machen.
Und da ist natürlich die Frage, inwieweit wollen wir das, dass jeder einzelne Bereich des Lebens reguliert wird, und irgendwie in einem Höllen-Szenario, jetzt überspringe ich mal ein paar, sondern eigentlich geht es ja darum, dass wir auch eigenverantwortlich handeln und eben aus eigener Motivation das eben nicht mehr tun.
Und es gab verschiedene Bereiche, Gründe dafür, daran zu glauben, dass Menschen, also dass diese Theorie, es gibt, irgendwo wartet immer ein Böser und der wird was Schlimmes machen, dass man das auch, dass man an der Stelle ansetzen kann und dafür sorgen kann, dass es irgendwann nicht mehr so böse Menschen gibt, dass man diese Angst nicht mehr haben muss.
Jetzt muss ich gerade kurz überlegen, was ich jetzt noch in den verbleibenden paar Minuten, oh der guckt schon so streng, noch bringe.
Also deswegen ganz kurz, es gibt mehrere Beispiele, wo man versucht hat, mit Eigenverantwortung sich zu retten.
Also ich bin der Vertreter der Republik Ushupis, das ist ein prominentes Beispiel, ein Viertel, was komplett dominiert war von Gewalt und Mord und so weiter und sämtliche staatliche Kontrolle, Gesetze haben keine Besserung gebracht, bis die Leute irgendwann gesagt haben, hey wir machen jetzt unsere eigenen Gesetze, wir machen unsere eigene Republik, wir machen Regeln, die heißen dann, der Hund hat das Recht, ein Hund zu sein, jeder hat das Recht zu lieben und jeder kann auch auf die Rechte verzichten und braucht nicht an seine Pflichten denken.
Die haben ein komplett komplexes Regelsystem gemacht und einfach Party mit den Leuten und haben gesagt, hey kommt jetzt erstmal einfach zusammen und wir machen jetzt irgendwelche großen Veranstaltungen und mittlerweile ist Ushupis aus dem kriminellsten Stadtteil des Baltikums die wertvollste Wohngegend geworden und da hat es geklappt und dann sagen alle, okay vielleicht in dem Areal.
Das noch als letztes Beispiel, im Straßenverkehr gibt es ja auch total viele Regeln und man geht davon aus, wenn man die wegnimmt, dann fährt ja jeder so schnell wie er will, weil es ist ja nicht verboten, dann gibt es überall nur noch Blech und Blut auf der Straße.
In den Niederlanden hat man das unter anderem gemacht, da war eine Kreuzung, wo es zu viele Unfälle gab, da haben die einfach alle Markierungen weggenommen.
Alles was dir irgendwie Sicherheit darüber geben könnte, wie schnell du fahren darfst, wo du lang fahren darfst, haben die einfach entfernt und plötzlich mussten die Leute aufpassen.
Plötzlich waren sie nicht mehr sicher, ob sie sicher sind und passten auf einmal aufeinander auf und die Unfallgefahr wurde sogar gesenkt statt erhöht, wie man ja eigentlich vermuten würde.
Man sagt uns ja immer, wenn es keine Regeln gibt, passiert da irgendwas Schlimmes.
Genau und so dann ganz kurz der Abschluss.
Die Frage ist natürlich, die man sich in der heutigen Zeit immer stellen muss, nachdem wir die TGPT, die Skills schon gesehen haben, habe ich mir das jetzt wirklich alles ausgedacht oder ist mir das von der KI befohlen?
This was your last stupid AI.
Wow, können wir das mal bitte weg machen?
Danke.
Alles klar, vielen Dank für Ihre Aufmerksamkeit.
Neuer Kommentar