KI zwischen Bias & Nutzen – Zamina Ahmad // #SFTF

Shownotes

Wie beeinflusst KI unsere Wahrnehmung und Entscheidungen? Welche ethischen Fragen müssen wir beantworten? Wie können Organisationen KI sinnvoll und fair einsetzen?

In dieser Folge spricht Zamina Ahmad, Gründerin von Shades & Contours, in ihrem Talk auf dem Waterkant Festival 2024 über die Herausforderungen und Chancen von Künstlicher Intelligenz. Sie zeigt eindrucksvoll, wie KI-Systeme Bias entwickeln, was das für unsere Gesellschaft bedeutet und wie wir mit Daten verantwortungsvoller umgehen können.

Zamina bringt tiefgehende Einblicke aus ihrer Erfahrung als Datenanalystin und Produktmanagerin mit – von diskriminierenden Sozialhilfe-Scorings bis zum KI-gestützten Marketing.

Jetzt reinhören und mitdiskutieren: Wie gestalten wir eine gerechte KI-Zukunft? #AI #Ethik #Daten #Bias #Zukunft #Podcast #SignalsFromTheFuture #Waterkant24 #waterkant25

Transkript anzeigen

00:00:00: Moin und herzlich Willkommen zu Signals from the Future, powered by Vatacant.

00:00:04: Wie gestaltet man KI-Systeme, die nützlich, aber auch ethisch und verantwortungsvoll sind?

00:00:08: Genau darum geht's in dieser Folge mit Samina Ahmad, KI- und Datenexpertin.

00:00:12: Sie zeigt, wie Bias in Algorithmen entsteht, wie wir ihn überwinden können

00:00:16: und welche Chancen künstliche Intelligenz bietet, wenn sie verantwortungsvoll eingesetzt wird.

00:00:21: Wenn euch die Folge und der Inhalt gefällt, folgt Vatacant gern auf allen Social-Media-Plattformen,

00:00:25: um nichts zu verpassen, und gebt uns Feedback.

00:00:28: Ganz wichtig außerdem, 19. und 20. Juni in Kiel, Vatacant Festival.

00:00:33: Also, herzlich willkommen zum Talk Balancing Data between Bias and Useful AI Systems.

00:00:52: Dieser Talk startet mit einer Interaktion, und zwar möchte ich, dass ihr alle mal aufsteht, sofern ihr könnt.

00:01:02: Und zwar geht es heute ja um Daten.

00:01:05: Algorithmen und KI-Systeme funktionieren mit unendlich vielen Daten.

00:01:09: Ich habe mir einen Algorithmus ausgesucht und drei Parameter, die auf einen Algorithmus zutreffen.

00:01:16: Ihr dürft euch hinsetzen, wenn dieser Parameter auf euch zutrifft.

00:01:20: Was der Algorithmus macht, sage ich euch am Ende.

00:01:24: So, es geht los.

00:01:26: Ihr könnt euch jetzt hinsetzen, wenn ihr älter als 38 Jahre alt seid.

00:01:31: Okay.

00:01:34: Dann der zweite Parameter.

00:01:37: Ihr dürft euch jetzt hinsetzen, wenn ihr euch als männliche Person identifiziert.

00:01:42: So, und dann der letzte Parameter.

00:01:47: Ihr dürft euch jetzt hinsetzen, wenn ihr keine Kinder habt.

00:01:51: Okay, keiner bleibt sitzen.

00:01:55: Manchmal bleibt immer nochmal eine Person sitzen.

00:01:58: Dann sage ich immer, die Person, die stehen bleibt, zieht nicht in die Niederlande.

00:02:02: Warum?

00:02:04: Es geht um dieses Scoring-System.

00:02:08: Das ist ein Scoring-System, das bewertet, ob Menschen Sozialhilfe-BetrügerInnen sind oder nicht.

00:02:15: Und zwar wurde es für die SozialarbeiterInnen von Rotterdam eingesetzt, um denen zu helfen.

00:02:21: Ja, ist die Samina, sollte die Sozialhilfe bekommen oder ist die eine Betrügerin?

00:02:26: Was passiert ist, der Algorithmus hat angefangen, alleinerziehende Mütter zu diskriminieren

00:02:32: und zu sagen, die brauchen wir zu lange in der Arbeitsmarktintegration.

00:02:35: Das sind Sozialhilfe-BetrügerInnen.

00:02:38: Da, wo gesunder Menschenverstand eigentlich einsetzen würde, weiß der Algorithmus das nicht.

00:02:43: Das heißt, er fängt an zu diskriminieren und das war eigentlich eines der schlechtesten

00:02:49: beziehungsweise schlimmsten Beispiele, wo KI-Systeme diskriminieren können.

00:02:54: Habe ich letztes Jahr gesagt, dieses Jahr gibt es leider noch schlimmere KI-Dinge,

00:03:01: wenn wir in die Welt schauen, nämlich KI-Einsatz in Kriegen beobachten wir gerade.

00:03:08: Hier am Beispiel Gaza-Konflikt, ein Informant hat das geleakt, dass AI-gestützte Drohnen

00:03:16: eingesetzt werden, um Hamas-Terroristen zu identifizieren.

00:03:20: Die Fehlerquote liegt oft bei KI-Systemen, wisst ihr vielleicht, 10 bis 20 Prozent.

00:03:25: Was bedeutet in dem Falle nicht falsche Informationen, sondern einfach mal Menschenleben ausgelöscht.

00:03:32: Jetzt kann man sagen, das ist ja alles weit weg.

00:03:35: Ich selbst komme aus Hamburg. Wir haben in Hamburg den Hansaplatz, der wird mittlerweile mit Videoüberwachung überwacht,

00:03:44: wo Bewegungsdaten von uns Menschen aufgezeichnet werden, um zu gucken, ob das kriminelle Menschen sind.

00:03:51: Und die Polizei testet sozusagen hier, was kann man mit Daten von Menschen machen.

00:03:57: Wozu hat das geführt? Diverse Bürgerrechtsbewegungen, den Hansaplatz wieder überwachungsfrei zu machen.

00:04:05: Aber es gibt auch andere Beispiele wie Deepfake-Informationen.

00:04:10: Jetzt hier wieder Superwahl, Europawahl.

00:04:13: Es kam die Deepfake-Information rum, dass man seinen Wahlzettel unterschreiben soll, sonst ist er nicht gültig.

00:04:20: Natürlich macht man ihn damit ungültig, aber wenn man nicht demokratisch gebildet ist, dann glaubt man solchen KI-gefakten Informationen.

00:04:29: Was sollen diese Beispiele sagen?

00:04:31: Die Beispiele sollen sagen, KI ist eine Technologie, die sehr viele Herausforderungen hat, sehr viele Challenges mit sich bringt.

00:04:38: Das erste Beispiel, Bias ist ein Problem in den Daten, Datenqualität und Repräsentation, wenn ihr an alleinerziehende Mütter denkt.

00:04:46: Das zweite Beispiel mit KI-gestützten Kriegseinsätzen heißt eigentlich ethische Fragestellungen, die wir noch nicht beantwortet haben,

00:04:54: uns als Gesellschaft, als Menschheit, wo wir KI überhaupt einsetzen wollen.

00:05:01: Und das letzte Beispiel mit Deepfake-Informationen, wir brauchen sehr, sehr viel mehr Wissen, wenn es um das Thema KI geht.

00:05:09: Und um zu unterscheiden, ist das eine KI-generierte Information und wie sehr kann ich dieser Information überhaupt trauen.

00:05:17: Wie wir das lösen, dazu komme ich am Ende nochmal drauf zurück.

00:05:21: Erstmal, ich bin Samina, ich habe 2010 nach meinem Studium als Datenanalystin gearbeitet,

00:05:29: sieben Jahre lang viele Daten ausgewertet, besonders im Online-Bereich, um Konsumentenverhalten zu bewerten.

00:05:37: Dann bin ich in die Rolle des Produktmanagerinnen geschlüpft, habe oft Algorithmen entwickelt,

00:05:42: beispielsweise Marketing-Optimierungsalgorithmen, aber auch bei Windkraftanlagen, um deren Ausfallzeiten zu reduzieren mittels Machine Learning.

00:05:52: Und 2022 habe ich dann Shades & Contours gegründet, meine eigene Beratungsfirma, mit dem Fokus auf faire KI-Lösungen.

00:06:02: Genau, ich starte immer gerne nochmal mit einem Überblick, was ist überhaupt KI?

00:06:07: Wenn man KI in der Literatur nachschaut, dann ist KI generell jede Maschine, jedes System, das irgendeine menschliche Aufgabe übernehmen kann.

00:06:18: Mit der Definition ist KI erst mal sehr, sehr breit gefächert.

00:06:23: Wenn man das dann runter bricht, menschliche Aufgaben, kann man auf menschliche Fähigkeiten mappen.

00:06:28: Das heißt, die KI kann denken, kann etwas sehen, erkennen, kann mit uns sprechen und kann vielleicht auch handeln, was ihr hier in diesen Kreisen seht.

00:06:38: Wenn man dann runter geht, dann kommt man automatisch auf die Subgebiete von KI.

00:06:43: Denken bedeutet eigentlich große Datenmengen analysieren, das heißt Machine Learning Algorithmen sehen.

00:06:50: Da reden wir vom Computer Vision Bereich, das sind oft autonome Fahrzeuge.

00:06:55: Speaking ist Natural Language Processing und Acting ist so etwas wie Robotics, ganz oft.

00:07:00: Und darauf weiter runter gedröselt, kommt ihr dann auch zu dem Punkt, dass ihr wisst,

00:07:05: okay, da sind also LLMs zu verorten, da ist Chat-GBT zu verorten, was ja so groß am Markt gehypt wird.

00:07:14: Hier habe ich die Boston Consulting Robot Taxonomy rausgesucht, die ist frei verfügbar.

00:07:21: Ich empfehle jedem, der irgendwie mehr sich mit dem Thema KI beschäftigen möchte, da reinzugucken.

00:07:28: Ihr seht in der Mitte die Definition von KI, dann die erste Schicht, die ich gerade erklärt habe, die menschlichen Fähigkeiten.

00:07:34: Und dann kommt ihr immer weiter von Schicht zu Schicht und seht dann, okay, hier vorne ist LLMs ein Teilgebiet,

00:07:42: darüber reden gerade alle und diese ganze Schablone hat noch so viele andere Möglichkeiten im Bereich KI.

00:07:49: Die empfehle ich auf jeden Fall, wenn ihr euch mehr dazu beschäftigen wollt.

00:07:53: Heute soll es aber auf jeden Fall darum gehen, wann sind KI-Systeme sinnvoll, also wann sind die useful und nützlich.

00:08:01: Und der erste Tipp, den ich auf jeden Fall gebe, ist, diesen Hype zu ignorieren und zu sagen,

00:08:08: wir brauchen jetzt bei jeder Standardaufgabe KI-Lösungen.

00:08:11: Das kann nicht die Lösung sein, sondern versucht es zu vermeiden und lösungsorientiert so reinzugehen

00:08:18: und zu sagen, wir brauchen jetzt überall KI, sondern guckt euch an in eurer Organisation,

00:08:24: in eurem täglichen Doing, wenn ihr KI einsetzen wollt, wo habt ihr Schmerzpunkte?

00:08:28: Das heißt, wo habt ihr eigentlich Pain-Points?

00:08:32: Also versteht erstmal eure Pain-Points und da gibt es diverse Methoden, die ihr vielleicht kennt,

00:08:38: wenn ihr in der digitalen Szene arbeitet, nutzerzentrierte Produktentwicklung oder Pain-Point-orientierte Produktentwicklung,

00:08:46: Problem-orientierte Produktentwicklung, Design-Thinking, alle fangen mit den Pain-Points einer Organisation an.

00:08:52: Hier seht ihr Service Blueprint, das ist so eine Art Prozessdiagramm,

00:08:56: die mein Geschäftsmodell auf verschiedene Schritte runterdröselt und dann seht ihr vielleicht im Prozessdiagramm,

00:09:05: okay, an dieser einen Stelle haben wir ein Pain-Point, ein Bottleneck.

00:09:09: Es gibt diverse andere Sachen, User-Journey, Customer-Journey, die habt ihr vielleicht schon gehört,

00:09:14: aber das sind gute Methoden, um zu erkennen, wo eure Pain-Points sind.

00:09:18: Dann das zweite, wieder zurück zu KI. Wir wollen ja KI einsetzen.

00:09:23: Im besten Fall habt ihr ein gutes Verständnis darüber, wo die Pain-Points der Organisation liegen und dann wollt ihr KI einsetzen.

00:09:30: Dann müsst ihr natürlich auch irgendwie im Klaren sein, was eure Ziele sind, wenn ihr KI einsetzen wollt.

00:09:36: Und man kann sagen, KI hat im Überblick drei übergreifende Ziele, die wir mit KI erreichen können.

00:09:44: Das erste Ziel ist, dass wir deutlich effizienter werden können.

00:09:48: Ihr merkt das wahrscheinlich selbst, wenn ihr ChatGBT nutzt.

00:09:51: Ihr könnt möglichst viel Text generieren, viel schneller, vielleicht noch ein paar Dinge automatisieren.

00:09:57: Das heißt, ihr könnt hier eure Effizienz von euren Aufgaben erhöhen.

00:10:01: Und je nachdem, in welcher Branche ihr seid, könnt ihr bis zu 40% Produktivitätssteigerung damit erreichen.

00:10:10: Das zweite Ziel, was ihr mit KI erreichen könnt, ist, dass ihr Kosten reduzieren könnt.

00:10:15: Das Beispiel kommt aus der Industrie.

00:10:18: Wenn wir beispielsweise Vibrationsdaten von der Windkraftanlage aufnehmen, in einen Machine Learning Algorithmus packen

00:10:26: und der dann sagen kann, gut, diese Vibration dieser Windkraftanlage hat eine bestimmte Anomalie,

00:10:31: die fällt wahrscheinlich in den nächsten zwei Wochen aus.

00:10:34: Dann kann mir dieser Algorithmus das prognostizieren, was dazu führt,

00:10:38: dass ich bis zu 25% der Downtime, also der Ausfallzeiten, der Windkraftanlage reduzieren kann.

00:10:46: Das heißt, das ist das zweite Ziel, was mit KI möglich ist.

00:10:51: Und das dritte Ziel ist nochmal ganz anders gelagert, nämlich die Experience zu verbessern.

00:10:58: Das ist, möglichst individuelle Angebote zu schneiden.

00:11:03: Das heißt, beispielsweise in der Medizin bekomme ich vielleicht aufgrund meiner persönlichen Patientendaten

00:11:10: eine ganz andere Medizin oder Therapie vorgeschlagen als jeder einzelne von euch,

00:11:16: weil wir ganz unterschiedliche demografische Daten haben.

00:11:19: Somit können wir natürlich die Behandlung in der Medizin sehr, sehr viel individueller gestalten

00:11:24: und auch sehr viel besser optimieren.

00:11:28: Und hier können wir sogar bis zu 50 Prozent, je nach Branche, an Kundenzufriedenheit, Kundenindividualisierung erreichen.

00:11:37: Genau, das sind die Ziele.

00:11:40: Wenn ihr an dem Punkt seid, dass ihr wisst, okay, wir haben diese Schmerzpunkte in unserer Organisation,

00:11:45: das sind vielleicht Ziele, auf die wir einzahlen wollen mit KI, dann gilt es, diesen Prozess anzustoßen.

00:11:52: Und jetzt mit How to create bedeutet eigentlich, wie ist der Prozess?

00:11:57: Also wie starte ich den Prozess, KI in meine Organisation einzuführen und zu bringen?

00:12:02: Das Erste ist immer gut, eine Strategie zu haben, also einen Plan zu haben.

00:12:08: Hier habe ich euch ein Beispiel mitgebracht.

00:12:11: Wir beraten gerade Siemens Energy in ihrer KI-Strategie und wie geht Siemens Energy das an?

00:12:18: Die macht das so ähnlich, dass sie erstmal damit anfängt zu gucken, wo sind eigentlich Möglichkeiten in unserer Organisation?

00:12:25: Was sind Konzepte, die wir aufstellen können für KI-Lösungen?

00:12:30: Dann gucken sie sich die Daten an und dann trainieren und testen sie Modelle.

00:12:34: So kommt man dazu, eigene KI-Lösungen customised auf die eigenen Organisationsbedürfnisse zu entwickeln.

00:12:42: Starten wir mal mit dem Identify Opportunities.

00:12:46: Das habt ihr eigentlich gerade schon gesehen, nämlich man fängt immer damit an, die Pain-Points zu analysieren.

00:12:51: Das heißt auf diesen Schritt bin ich schon eingegangen.

00:12:55: Wenn ihr diesen Pain-Point habt, dann müsst ihr natürlich auch ein bisschen tiefer reingehen und verstehen,

00:13:01: wo steht ihr eigentlich gerade mit diesem Pain-Point.

00:13:05: Beispiel, ist es eigentlich ein Problem, wo wir gerade manuell eine Lösung haben, also viel manueller Workload?

00:13:12: Ist es ein bekanntes Problem und wir haben gerade eine Software im Einsatz, die aber uns trotzdem unzufrieden macht?

00:13:19: Oder reden wir von einem neuen Problem und wir brauchen auch eine ganz neue Lösung dazu?

00:13:24: Um das mal ein bisschen klarer zu machen, ein Beispiel.

00:13:28: Stellen wir uns mal vor, wir haben ein bekanntes Problem und momentan eine manuelle Lösung.

00:13:33: Stellen wir uns einen Online-Shop vor und es gibt einen Einkäufer,

00:13:37: der Röcke im Sommer höhere Preise vergibt als im Winter, weil im Sommer wollen alle Röcke kaufen.

00:13:43: Dann könnte ich mir überlegen, das kann ja auch eine KI oder eine simple Automatisierung machen

00:13:48: oder ein bestimmter Dynamic Pricing Algorithmus.

00:13:53: Dann muss ich da tiefer reingehen und mir überlegen, hat dieser Einkäufer damit eigentlich hohen Workload?

00:13:59: Oder ist das eigentlich nur eine Aufgabe von einer halben Stunde einmal im Jahr?

00:14:04: Ist das ein Problem, wenn wir eine Automatisierung einführen,

00:14:08: dass dann immer noch menschliche Supervision gefordert ist?

00:14:11: Also muss das jemand abnehmen oder kann ich es voll automatisieren?

00:14:15: Und drittens, wenn wir wirklich das automatisieren wollen, die Preisgestaltung,

00:14:20: haben wir dann die Daten zur Verfügung, dass ein Algorithmus das selbst entscheiden kann.

00:14:24: Das sind Beispielfragen, die stellvertretend für drei Punkte stehen,

00:14:29: nämlich was ist der Nutzen, Impact, wie hoch ist die Automatisierung,

00:14:33: der Automatisierungsgrad und wie gut ist überhaupt die Umsetzung?

00:14:38: Ist die Umsetzung überhaupt machbar?

00:14:41: Das sind die drei Punkte, die man bewerten muss, wenn man überlegt, KI einzusetzen.

00:14:47: Das alles sind sehr, sehr viele Fragen

00:14:51: und wir haben bei Shades & Contours dieses Product Canvas entwickelt.

00:14:56: Falls ihr das Business Model Canvas kennt, das ist so ähnlich strukturiert.

00:15:00: Das stellen wir kostenfrei zur Verfügung.

00:15:02: Über den QR-Code könnt ihr euch das runterladen und als Miro-Template selbst nutzen.

00:15:08: Im Prinzip beschreibt ihr da den Status quo,

00:15:11: das heißt die Pain Points, wie ist es heute in meiner Organisation,

00:15:14: wie stellen wir uns die Zukunft vor, wenn wir irgendetwas automatisiertes einsetzen wollen

00:15:18: und wie kann diese Lösung aussehen.

00:15:21: Das heißt, es ist ein ganz gutes Gedankeninstrument,

00:15:23: um so einen Startpunkt als Organisation zu finden und KI-Lösungen einzusetzen.

00:15:28: Funktioniert der Link? Du kommst schon nach vorne.

00:15:31: Ja? Geht der? Ja? Okay.

00:15:36: Manchmal ist er nämlich abgelaufen.

00:15:40: Okay, genau. Dann habt ihr vielleicht im besten Fall diesen Canvas ausprobiert

00:15:47: und dann irgendwie Ideen generiert, KI einzusetzen.

00:15:50: Dann habt ihr eine Liste an ganz vielen Ideen

00:15:52: und dann ist es natürlich wichtig, das zu priorisieren.

00:15:55: Das heißt, im Schritt 2, Score Impact, bedeutet eigentlich, uns Punkte zu vergeben.

00:16:02: Hier ist beispielsweise die Business Scoring Card abgebildet.

00:16:06: Ihr überlegt euch, was will ich bewerten, wie hoch sind die Punktezahlen

00:16:10: und was bedeutet das für meine Priorisierung.

00:16:13: Ein anderes Mittel, um KI-Lösungen zu bewerten, ist diese simple Eisenhower Matrix,

00:16:20: Nutzen gegen Aufwand.

00:16:22: Hier habe ich wieder das Beispiel Dynamic Pricing.

00:16:25: Das ist also ein Big New Feature, weil der Aufwand ist recht hoch, das selbst zu entwickeln,

00:16:30: aber der Nutzen ist vielleicht auch hoch.

00:16:32: Aber die Organisation, also gehen wir von einem Online-Shop aus,

00:16:36: der hat vielleicht auch einen Quick Win, wie zum Beispiel Marketing mit ChatGBT erstellen,

00:16:40: weil ChatGBT ist zur Verfügung und ich kann Marketing-Texte relativ schnell damit entwickeln.

00:16:48: Gehen wir mal darauf ein, Quick Wins, weil der Markt ist zum Glück gerade so,

00:16:53: dass unheimlich viele KI-Tools auf den Markt geschwemmt werden.

00:16:56: In jeglichen Software-Systemen finden wir KI-Unterstützungen.

00:17:02: Dann ist es wichtig, auch gut prompten zu können.

00:17:06: Hier ist ein Beispiel von uns, von Shades & Contrast.

00:17:10: Wir haben ein eigenes GBT auf ChatGBT trainiert.

00:17:14: Falls ihr den Pro-Account von eurer Firma oder vielleicht einen privaten Account habt,

00:17:18: habt ihr den Zugang bei ChatGBT, ein eigenes GBT zu trainieren.

00:17:23: Das geht oben rechts über die Navigation, GBT erstellen.

00:17:27: Das ist ein Screenshot, wo ihr dann reinkommt.

00:17:29: Hier füllt ihr einfach aus, ich bin Shades & Contrast, ich will Marketingtexte automatisieren.

00:17:35: Hier habt ihr eine Unternehmenspräsentation, die kann man dann reinladen.

00:17:39: Dann kann man sukzessive ein GBT darauf trainieren,

00:17:43: das auf die eigene Marketing- und Unternehmenssprache angepasst ist.

00:17:47: Hier habe ich es dann weiter ein bisschen gescreenshottet für euch.

00:17:51: Hier ist unsere Präsentation auf einem Berliner Event, was wir hatten.

00:17:55: Und dann habe ich angefangen zu sagen, gib mir bitte LinkedIn-Post-Ideas,

00:18:00: gib mir Ideen, was wir posten können, gib mir eine Roadmap für unser Marketing.

00:18:05: Und am Ende kam dann, womit ich ganz zufrieden war, ein Post über den EU-AI-Act,

00:18:11: stell mir irgendwie einen Text dazu her und Dali gibt mir dann auch ein Bild dazu her.

00:18:15: Das heißt, das ist das Ergebnis und recht easy und simpel kann man da sich ein bisschen ausprobieren

00:18:21: mit den KI-Tools und relativ schnell den Workload auch selbst reduzieren.

00:18:26: Genau, ich habe es gerade schon gesagt, es ist relativ wichtig, dann gut prompten zu können.

00:18:31: Wir haben bei Shades & Contours einen Prompting-Guide aufgestellt,

00:18:34: den wir auch kostenlos zur Verfügung stellen.

00:18:36: Den könnt ihr euch über den QR-Code runterladen.

00:18:38: Da findet ihr verschiedene Prompting-Techniken, die auch dazu führen,

00:18:42: dass die Ergebnisse ganz unterschiedlich werden.

00:18:45: Ihr findet eine Einführung in Basiskern-Elemente zum Prompting,

00:18:49: aber auch Tipps zum inklusiven und biasfreien Prompting,

00:18:53: sodass die Stereotypen weniger werden, also weniger stereotypische Ergebnisse ihr erhaltet.

00:19:00: Genau, ich warte mal, bis alle abfotografiert haben.

00:19:06: Genau, soweit dazu. Das heißt, KI-Tools am Markt,

00:19:12: KI-Canvas nutzen, um die Gedanken zu strukturieren.

00:19:16: Vielleicht kommt ihr trotzdem zu dem Punkt, dass ihr sagt,

00:19:19: wir wollen selbst unseren Machine Learning Algorithmus machen,

00:19:22: wir wollen selbst eine AI entwickeln.

00:19:25: Dann ist es wichtig zu wissen, was möchte ich überhaupt damit erreichen.

00:19:31: Hier ist ein Beispiel, was wir einen Kunden umgesetzt haben.

00:19:35: Das ist ein Custom-GBT, das ist auch auf Chat-GBT trainiert,

00:19:40: aber das ist ein unternehmensinternes GBT.

00:19:44: Das heißt, du kannst den ganzen Sharepoint von eurem Unternehmen dort anbinden,

00:19:49: alle Dokumente suchen und dann auch anfangen zu sagen,

00:19:53: ich habe jetzt diese KI-Talks alle schon gehalten,

00:19:56: bitte erstelle mir einen neuen KI-Talk und gib mir den Text dazu aus.

00:20:01: Das ist recht customized.

00:20:04: Was aber wichtig ist für so welche Sachen,

00:20:07: das habt ihr vielleicht gerade jetzt auch mitbekommen,

00:20:09: ist die Daten dazu zur Verfügung zu haben.

00:20:11: Und dafür braucht man auch unheimlich viele Daten im Unternehmen.

00:20:15: Und was wir immer machen, ist so eine Art Data Assessment Workshop.

00:20:20: Das heißt, welche Datenquellen sind im Unternehmen vorhanden,

00:20:24: welche Datenstruktur liegt überhaupt vor,

00:20:27: sind die in Excel-Dateien, ist da eine Datenbank,

00:20:30: gibt es Datenlücken, kann ich diesen Daten vertrauen?

00:20:33: Das ist unheimlich wichtig.

00:20:34: Und der dritte Punkt, auch sehr wichtig ist,

00:20:37: darf ich die Daten überhaupt nutzen?

00:20:38: Das heißt, wie ist der Datenschutz gelagert?

00:20:41: Sollte ich diese Daten nutzen?

00:20:42: Sind die sensibel zu behandeln, zu anonymisieren und so weiter?

00:20:47: Das heißt, wenn man selbst KI entwickeln will,

00:20:49: muss man im Vorhinein die Daten bewerten in ihrer Struktur,

00:20:53: aber auch, ob ich die rechtlich überhaupt dafür nutzen darf.

00:20:58: Es ist relativ schwer, dazu Action-Tipps zu geben,

00:21:01: weil jede Organisation unterschiedliche Bedürfnisse dazu hat.

00:21:06: Aber ich habe trotzdem mal versucht, generelle Tipps zu geben.

00:21:10: Wenn man Daten unternehmensintern nutzen will,

00:21:13: dann sollte man immer gucken,

00:21:15: welche vorhandenen Datenquellen habe ich gerade überhaupt?

00:21:19: Dann zweitens, darf ich die nutzen?

00:21:22: Also die legalen, rechtlichen Verordnungen,

00:21:25: DSGVO und Co. zu prüfen für diese Daten.

00:21:29: Dann, wenn ihr Daten nutzen wollt,

00:21:32: und es gibt Daten, die noch nicht digitalisiert worden sind,

00:21:35: dann muss man es vielleicht auch nicht tun.

00:21:37: Also es gibt auch meistens einen Grund,

00:21:39: warum es bisher noch nicht digitalisiert worden ist.

00:21:41: Also keinen Anspruch auf Vollständigkeit dazu verfolgen.

00:21:45: Und am Ende, was die KI immer besser macht,

00:21:48: ist, verschiedene Datenquellen einzubeziehen.

00:21:51: Also sich nicht nur auf eine Datenquelle zu verlassen,

00:21:54: weil es dann möglichst diverse Ursprungsdaten gibt.

00:22:00: Genau, so viel zum Prozess,

00:22:02: wie man überhaupt KI entwickelt,

00:22:05: wie man KI nutzbar macht.

00:22:07: Ich komme jetzt wieder zurück zu den Punkten,

00:22:11: zu den Beispielen am Anfang.

00:22:14: Habt ihr denn eine Idee, wie es dazu kam,

00:22:17: dass dieses Scoring-System alleinerziehende Mütter diskriminiert hat?

00:22:25: Also es gibt mehrere Gründe, deswegen...

00:22:30: Gibt es jemanden, der eine Idee dazu hat?

00:22:35: Ja? Jetzt weiß ich nur nicht, wie ich dich höre.

00:22:38: Und die anderen auch hören.

00:22:43: Also in US-amerikanischen Gerichten

00:22:45: haben auch KI-Systeme eingesetzt, um Leute zu verurteilen

00:22:49: oder ein angemessenes oder bereits bestehende Verurteilung als Referenz zu nehmen.

00:22:55: Und in diesen Datensätzen war immer ein Bias gegenüber schwarzen Leuten,

00:22:59: dass die viel strenger verurteilt wurden als weiße.

00:23:04: Ja, danke. Das ist der erste richtige Grund.

00:23:07: Wir haben in den Daten, ich habe es ja auch schon in der Erklärung gesagt,

00:23:11: es ist natürlich de facto so, dass alleinerziehende Mütter, die brauchen länger um den Arbeitsmarkt rein.

00:23:16: Ein Sozialarbeiter würde einfach sagen, ja gut, ist normal.

00:23:20: Ein Algorithmus weiß sowas nicht und der nimmt diese, hat das abgestraft

00:23:24: und dann auch angefangen, das als Sozialbetrüger-Hilfe, SozialbetrügerInnen zu labeln.

00:23:31: Das heißt, wir haben reale Diskriminierung, die wir natürlich dann auch mitgeben müssen,

00:23:35: ausgleichen müssen oder sagen müssen, das ist in Ordnung so oder wir wollen das nicht reproduzieren.

00:23:41: Das ist ein Grund. Ein zweiter Grund kann natürlich sein,

00:23:44: dass der Algorithmus das schon von Anfang an diskriminiert hat,

00:23:47: aber dieser Fall nicht abgeprüft worden ist.

00:23:49: Das heißt, wenn Algorithmen aufgebaut werden, werden Testfälle geschrieben

00:23:54: und dieser Testfall hätte eigentlich geschrieben werden müssen.

00:23:58: Prüfe auf alleinerziehende Mütter, machst du da ein Bias rein oder nicht?

00:24:02: Das heißt, wahrscheinlich war dieser Testfall nicht dabei,

00:24:06: sodass es nicht abgeprüft worden ist.

00:24:09: Das könnte auch eine Möglichkeit sein.

00:24:11: Eine andere Möglichkeit kann auch sein,

00:24:13: dass ein Algorithmus das über die Zeit entwickelt.

00:24:15: Das heißt, von Anfang an waren vielleicht alleinerziehende Mütter gleich,

00:24:18: aber über die Zeit hinweg hat es gemerkt,

00:24:21: okay, irgendwie brauchen die mir zu lange, ich fange an, die abzustrafen.

00:24:24: Das heißt, wir müssen auch über die Zeiten hinweg immer KI

00:24:28: oder algorithmische Systeme prüfen, ob die nicht anfangen,

00:24:33: dann über die Zeit und Feedback-Schleifen einzubauen und Dinge zu diskriminieren.

00:24:40: Das ist alles so ein Bias, der in diese Diskriminierungsschiene geht.

00:24:45: Es gibt aber auch Bias, die sind nicht unbedingt auf Diskriminierung gemünzt,

00:24:50: verursachen aber trotzdem Probleme.

00:24:52: Beispielsweise hier, als ich bei Otto gearbeitet habe,

00:24:55: haben wir einen Empfehlungsalgorithmus geschrieben.

00:24:58: Und dieser Empfehlungsalgorithmus hat angefangen,

00:25:01: aufgrund meines Kundenverhaltens zu sagen, was ich gerne kaufen möchte.

00:25:06: Ich habe da eine Waschmaschine gekauft, wie ihr seht im Bild,

00:25:09: und der Algorithmus denkt dann, ok, die Samina will für immer Waschmaschinen,

00:25:13: aber du musst es dem System leider manuell sagen,

00:25:16: ne, eine Waschmaschine hat einen Kauflebenszyklus von 5 Jahren,

00:25:19: schlagt Samina erstmal keine Waschmaschinen vor.

00:25:22: Wir nennen das auch Confirmation Bias,

00:25:25: weil der Algorithmus sich versucht, wieder zu bestätigen.

00:25:28: Ein anderer Bias ist Alexa.

00:25:31: Alexa reagiert sehr, sehr viel besser auf Männerstimmen als auf Frauenstimmen.

00:25:37: Das liegt im Trainingsdatensatz begründet,

00:25:39: weil der Trainingsdatensatz aus Männerstimmen vorwiegend bestand

00:25:43: und deswegen nennen wir das auch ein bisschen Selection Bias,

00:25:47: weil er auf Frauenstimmen heute nicht so gut reagiert.

00:25:51: Bias ist ganz unterschiedlich gelagert.

00:25:54: Es kann mathematisch sein, es kann aber auch aus der realen Welt sein,

00:25:58: weil die Daten das reflektieren, wie die Welt gerade ist

00:26:01: und die ist an einigen Stellen unfair.

00:26:04: Um dem entgegenzuwirken, empfehle ich,

00:26:07: wenn ihr Data Scientist seid oder mit Daten arbeitet, Bias Sheets.

00:26:11: Gibt es im Internet zuhauf, die auch auflisten,

00:26:14: okay, was ist das für ein Verhalten der Daten

00:26:17: und wie kann ich dem entgegenwirken.

00:26:20: So können wir auf jeden Fall das auflösen.

00:26:23: Es gibt trotzdem sehr wichtige Punkte in der Datenqualität,

00:26:28: um das halt besser zu machen und Bias zu verhindern.

00:26:33: Der erste Tipp ist auf jeden Fall darauf zu achten,

00:26:36: dass die Data Diversity hoch ist.

00:26:38: Das heißt, dass alle Fälle möglichst in den Daten abgedeckt sind,

00:26:41: möglichst repräsentativ sind

00:26:43: und auch in ausreichenden Mengen zur Verfügung stehen.

00:26:46: Die zweite Möglichkeit ist zu gucken, wenn ich erkenne,

00:26:50: dass da Daten falsch oder beziehungsweise ungleich gelagert sind,

00:26:54: wie kann ich die pre- oder post-processen in meinem Prozess?

00:26:59: Dann verschiedene Datenquellen nochmal mit einzubeziehen, zu gucken,

00:27:04: vielleicht gibt es auch Open Source Datenquellen,

00:27:06: die meinen Datensatz auch nochmal besser machen.

00:27:08: Und zu guter Letzt, es kann auch sein,

00:27:11: dass verschiedene Modelle, Machine Learning Modelle,

00:27:14: ganz unterschiedliche Ergebnisse rausbringen.

00:27:16: Und dann nochmal zu testen, kriege ich da vielleicht weniger Bias

00:27:21: oder eine Ausgeglichenheit und bei anderen Sachen mehr Bias.

00:27:27: Also da verschiedene Modelle zu testen.

00:27:30: Dann das zweite Beispiel mit KI-Unterstützung im Kriegen.

00:27:37: Das ist ein sehr, sehr, sehr kritisches Beispiel.

00:27:41: Und es gibt eine gute Sache, weil wir in der EU leben,

00:27:45: haben wir den EU-AI-Act, der auf die Straße gebracht worden ist

00:27:49: und der klassifiziert KI-Systeme in Risikokategorien ein.

00:27:53: Also von unbedenklichst, wie zum Beispiel Videospiele,

00:27:56: sollte verboten werden.

00:27:59: Und der gibt uns auf jeden Fall die Möglichkeit zu bewerten,

00:28:03: wo bin ich mit meinem KI-System.

00:28:06: Wenn ich mir da unsicher bin,

00:28:08: dann empfehle ich die Webseite von der EU.

00:28:11: Die gibt dieses Formular raus.

00:28:13: Man kann dann sagen, okay, hier, ich bin ein Unternehmen,

00:28:17: ich habe diese Daten zur Verfügung

00:28:19: und ich möchte das und das entwickeln.

00:28:21: Dann spuckt diese Umfrage sofort eine Art Vorschlag raus,

00:28:25: in welcher Risikokategorie man ist,

00:28:27: sodass man weiß, muss ich mehr dokumentieren

00:28:30: oder bin ich eigentlich total unbedenklich.

00:28:32: Das ist eine sehr gute Stütze von der EU.

00:28:35: Genau, weil man da noch nicht so richtig weiß,

00:28:38: was da für Systeme drin sind.

00:28:40: Ich habe hier ein Beispiel, das ist nur ein Platzhalterbild für,

00:28:44: vielleicht habt ihr davon gehört, dass in Bewerbungsprozessen

00:28:47: ja auch KI-Systeme eingesetzt werden.

00:28:50: Das hat wahrscheinlich so eine mittlere Risikokategorie von der EU.

00:28:55: Das heißt, es führt zu sehr vielen Dokumentations- und Transparenzpflichten.

00:28:59: Also diese Systeme selektieren BewerberInnen vor

00:29:04: und es kam zu guter Letzt halt zu vielen Diskriminierungen,

00:29:09: dass beispielsweise Frauen auch selektiert worden sind.

00:29:12: Und weil das auch Menschenleben beeinflusst,

00:29:14: wird die EU wahrscheinlich das in so eine mittlere Risikokategorie einsortieren.

00:29:21: Genau, dann das dritte, das letzte Beispiel,

00:29:25: was ich euch gezeigt hatte zum Deepfake.

00:29:28: Wie können wir das auflösen?

00:29:31: Da brauchen wir alle sehr, sehr viel mehr Wissen im Umgang mit KI.

00:29:35: Und ich habe euch hier ein Screenshot mitgebracht oder ein Bild von der Republika,

00:29:40: der herarbeitet bei Mozilla und hat auch analysiert,

00:29:44: wie können wir eigentlich dieses Ungleichgewicht,

00:29:47: das gerade am Markt herrscht, aufbrechen.

00:29:49: Was meine ich mit Ungleichgewicht?

00:29:51: Gerade ist es so, dass besonders KI-Systeme von Open AI,

00:29:55: Meta und den ganzen großen Big-Playern entwickelt werden.

00:29:59: Wie kann so ein Markt aufgebrochen werden?

00:30:02: Der kann aufgebrochen werden mit Open-Source-Möglichkeiten

00:30:05: und anderen Modellen, also Modelle oder Companies zu unterstützen,

00:30:10: die auch Open-Source-Möglichkeiten bieten

00:30:13: und nicht nur auf JetGBT und Co. zurückzugreifen,

00:30:17: weil wir dann sozusagen diese Marktmonopolstellung

00:30:21: auch wieder auflösen können.

00:30:23: Hier seht ihr so ein paar Beispiele wie Aleph Alpha aus Deutschland

00:30:27: oder Hugging Face, die sehr weit Open-Source-Möglichkeiten bieten.

00:30:32: Genau, das war es eigentlich schon zu meinem Vortrag.

00:30:37: Ihr könnt uns gerne folgen.

00:30:39: Ihr habt es ja im Vortrag gemerkt, wir machen auch Open-Source

00:30:42: und teilen unser Wissen gerne mit Prompting Guides oder Canvases.

00:30:46: Von daher bedanke ich mich für eure Aufmerksamkeit

00:30:50: und freue mich auf eure Fragen.

00:30:53: Vielen Dank.

00:30:54: Vielen Dank.

00:30:55: Vielen Dank.

00:30:56: Vielen Dank.

00:30:57: Vielen Dank.

00:30:58: Vielen Dank.

00:30:59: Vielen Dank.

00:31:00: Untertitel von Stephanie Geiges

00:31:04: Sprecher Jochen Graf

00:31:07: Deutsche Bearbeitung sub&dub company

00:31:09: Redaktion Julian Windisch

00:31:12: Sprecher Jochen Graf

00:31:14: Deutsche Bearbeitung sub&dub company

00:31:16: Redaktion Julian Windisch

00:31:19: Untertitel von Stephanie Geiges

00:31:22: Sprecher Jochen Graf

00:31:24: Deutsche Bearbeitung sub&dub company

00:31:26: Redaktion Julian Windisch

00:31:28: Untertitel der Amara.org-Community

00:31:31: Untertitel von Stephanie Geiges

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.