Von Sonja Kelly, Direktorin für Forschung und Interessenvertretung, und Mehrdad Mirpourian, leitender Datenanalyst
Die Diskussion um künstliche Intelligenz (KI) als treibende Kraft für Wirtschaft und Gesellschaft hat an Popularität gewonnen, wie mehr als zwei Dutzend KI-fokussierte Sitzungen auf dem Weltwirtschaftsforum 2024 in Davos. Im Jahr 2020 wir begannen eine Reise zum Verständnis algorithmischer Voreingenommenheit im Hinblick auf die finanzielle Inklusion von Frauen. Was ist das? Warum ist es gerade jetzt wichtig? Wo entsteht es? Wie kann es gemildert werden? Dieses Thema ist besonders wichtig, da wir uns mit hoher Geschwindigkeit einer digitalen Finanzzukunft nähern. Frauen besitzen seltener ein Telefon, seltener ein Smartphone und seltener Zugang zum Web. Unter diesen Bedingungen ist es keine Garantie dafür, dass bei der digitalen Kreditvergabe die digitalen Einschränkungen von Frauen berücksichtigt werden. Wir haben unsere Untersuchung auf die Risiken der algorithmusbasierten Kreditvergabe für weibliche Kunden konzentriert. Heute teilen wir mit, was wir gelernt haben und wohin diese Forschung Ladies's World Banking in Zukunft führen wird.
In Algorithmische Voreingenommenheit, finanzielle Inklusion und Geschlecht: Eine Einführung in die Erschließung neuer Kredite für Frauen in Schwellenländernbetonen wir, dass es nicht so einfach ist, Voreingenommenheit zu finden, wie eine Entscheidung als „unfair“ zu bezeichnen. Tatsächlich gibt es Dutzende von Definitionen von Geschlechtergerechtigkeit, von der Vermeidung geschlechtsspezifischer Daten bei Kreditentscheidungen bis hin zur Gewährleistung gleicher Wahrscheinlichkeit bei der Kreditvergabe an Männer und Frauen. Wir haben mit der Definition von Gerechtigkeit begonnen, weil Finanzdienstleister zunächst klarstellen müssen, was sie meinen, wenn sie sagen, dass sie Gerechtigkeit anstreben.
Das Streben nach Equity beginnt mit der Erkenntnis, wo Vorurteile entstehen. Eine Quelle der Vorurteile sind die Eingaben, die zur Erstellung der Algorithmen verwendet werden – die Daten selbst. Selbst wenn eine Establishment das Geschlecht nicht als Eingabe verwendet, können die Daten voreingenommen sein. Ein Blick auf die Daten, die app-basierte digitale Kreditanbieter sammeln, gibt uns ein Bild davon, was voreingenommene Daten beinhalten können. Unsere Analyse zeigt, dass die weltweit führenden digitalen Kreditunternehmen Daten zu GPS-Standort, Telefon-{Hardware}- und Softwarespezifikationen, Kontaktinformationen, Speicherkapazität und Netzwerkverbindungen sammeln. Alle diese Datenquellen können geschlechtsspezifische Vorurteile enthalten. Wie bereits erwähnt, hat eine Frau mehr unbezahlte Betreuungspflichten und besitzt seltener ein Smartphone oder ist mit dem Web verbunden. Andere Vorurteile können die Modellspezifikationen selbst umfassen, die auf Parametern basieren, die von Datenwissenschaftlern oder Entwicklern festgelegt wurden. Von Praktikern in unserer Interviewstichprobe hörten wir von Fehlern, die Programmierer machen – entweder aus Unerfahrenheit oder aufgrund unbewusster Vorurteile –, die eine Voreingenommenheit in den Modellergebnissen so intestine wie garantieren. Schließlich kann das Modell selbst im Laufe der Zeit Vorurteile einführen oder verstärken, da es weiterhin von sich selbst lernt.
Für Institutionen, die ihre eigenen Voreingenommenheiten bei der Entscheidungsfindung besser einschätzen und verstehen möchten, Ladies's World Banking bietet Kreditgebern einen wichtigen Leitfaden vor dem Hintergrund einer sich rasch verändernden Kreditlandschaft. Politiker und Datenwissenschaftler können Empfehlungen für Anbieter durchgehen, um Voreingenommenheit zu erkennen und zu mildern, um sicherzustellen, dass Kreditbewertungsmethoden inklusiv sind und um eine unbeabsichtigte Ausgrenzung von Frauen zu verhindern. Laden Sie den kostenlosen Leitfaden herunter Hier.
Es gibt viele leicht umsetzbare Strategien zur Minderung von Vorurteilen, die für Finanzinstitute related sind. Diese Strategien sind für Algorithmenentwickler und das institutionelle Administration gleichermaßen related. Für Entwickler kann die Minderung algorithmischer Vorurteile bedeuten, die Daten zu entzerren, Audits oder Kontrollen zu erstellen, die den Algorithmus begleiten, oder Nachbearbeitungsberechnungen durchzuführen, um zu prüfen, ob die Ergebnisse honest sind. Für das institutionelle Administration kann die Minderung algorithmischer Vorurteile bedeuten, regelmäßige Berichte in einfacher Sprache anzufordern, daran zu arbeiten, geschlechtsspezifische Diskrepanzen in den Daten erklären und begründen zu können, oder ein internes Komitee einzurichten, das die algorithmische Entscheidungsfindung systematisch überprüft. Die Minderung von Vorurteilen erfordert Absicht auf allen Ebenen – aber es muss nicht zeitaufwändig oder teuer sein.
Die Finanzdienstleistungsbranche muss sich dringend mit dem Downside potenzieller Vorurteile bei der Kreditvergabe befassen – und wenn die Institute dies nicht selbst tun, wird die künftige Regulierung bestimmen, wie die Vorurteilsminderung aussehen wird. Wenn andere Branchen einen Fahrplan vorgeben, sollten Finanzdienstleister offen und clear mit den Vorurteilen umgehen, die durch die Technologie entweder verstärkt oder eingeführt werden können. Wir sollten vorausschauend und nachdenklich sein, wenn wir uns diesen neuen globalen Herausforderungen stellen, auch wenn wir weiterhin aktiv digitale Finanzen für die finanzielle Inklusion nutzen.
Ladies's World Banking ist weiterhin bestrebt, Teil der Lösung zu sein. Unsere nächste Arbeitsphase umfasst die Entwicklung eines Lehrplans für Datenwissenschaftler, der speziell darauf ausgelegt ist, ihnen dabei zu helfen, Voreingenommenheit gegenüber abgelehnten Kreditantragstellern in Algorithmen zu erkennen und zu mildern. Darüber hinaus gibt es derzeit kein Schulungsprogramm, das die Regulierungsbehörden darauf vorbereitet, sicherzustellen, dass Finanz- und Regulierungstechnologien für Frauen geeignet sind. Wir haben ein mehrmonatiges inklusives Fintech-Programm für Regulierungsbehörden entwickelt. Die Teilnehmer erhalten ein Verständnis für die wichtigsten Risiken und Chancen, die sich durch neue Technologien wie KI ergeben, für Technologietrends, die sich auf die finanzielle Inklusion von Frauen auswirken, sowie für die Fähigkeiten und das Unterstützungsnetzwerk, um an der Spitze der inklusiven politischen Innovation zu bleiben. Wenn Sie daran interessiert sind, diese Arbeit zu unterstützen, klicken Sie hier. Wenn Sie Updates zu unseren Programmen erhalten möchten, melden Sie sich für unsere Mailingliste an.