Von Sonja Kelly, Direktorin für Forschung und Interessenvertretung, Ladies's World Banking
Voreingenommenheit kommt vor. Es wird weltweit ausführlich diskutiert, da verschiedene Branchen maschinelles Lernen und künstliche Intelligenz nutzen, um die Effizienz ihrer Prozesse zu steigern. Ich bin sicher, Sie haben die Schlagzeilen gesehen. Der Einstellungsalgorithmus von Amazon systematisch aussortiert Kandidatinnen. Der Twitter-Bot von Microsoft wurde so rassistisch es musste den Bahnsteig verlassen. Intelligente Lautsprecher Ich verstehe farbige Menschen nicht Sie verstehen auch Weiße. Algorithmische Voreingenommenheit ist allgegenwärtig, daher ist es keine Überraschung, dass Ladies's World Banking Hinweise auf eine geschlechtsspezifische Voreingenommenheit in Kreditbewertungsalgorithmen findet. Mit Mitteln der Visa Basis starten wir einen Arbeitsablauf zur Beschreibung, Identifizierung und Abschwächung geschlechtsspezifischer algorithmischer Vorurteile, die potenzielle weibliche Kreditnehmer in Schwellenländern betreffen.
Die Kategorisierung von Menschen in „kreditwürdig“ und „nicht kreditwürdig“ ist nichts Neues. Der Finanzsektor verwendet seit jeher Proxies zur Beurteilung des Bewerberrisikos. Mit der zunehmenden Verfügbarkeit großer und alternativer Daten verfügen Kreditgeber über mehr Informationen, auf deren Grundlage sie Entscheidungen treffen können. Dazu kommen künstliche Intelligenz und maschinelles Lernen – Instruments, die dabei helfen, riesige Datenmengen zu sortieren und festzustellen, welche Faktoren für die Vorhersage der Kreditwürdigkeit am wichtigsten sind. Ladies's World Banking untersucht die Anwendung dieser Technologien im digitalen Kreditbereich und konzentriert sich dabei vor allem auf Smartphone-basierte Dienste, die in den letzten Jahren eine weltweite Verbreitung erfahren haben. Für diese Unternehmen können zu den verfügbaren Daten die Kontaktliste eines Bewerbers, GPS-Informationen, SMS-Protokolle, der App-Obtain-Verlauf, das Telefonmodell, der verfügbare Speicherplatz und andere von Mobiltelefonen erfasste Daten gehören.
Digitale Kredite sind für Frauen vielversprechend. Frauengeführte Unternehmen machen ein Drittel der KMU in Schwellenländern aus, erhalten jedoch einen unverhältnismäßig geringen Anteil an verfügbaren Krediten. Es ist eine Herausforderung, dafür zu sorgen, dass verfügbare Kredite bei Frauen ankommen – Kreditsachbearbeiter kleinere Kredite für Frauen genehmigen als bei Männern, und Frauen kassieren höhere Strafen für Fehler wie versäumte Zahlungen. Die digitale Bonitätsprüfung beseitigt diese menschliche Voreingenommenheit. Wenn es richtig eingesetzt wird, ist es in der Lage, dünnschichtige Kunden und Frauen einzubeziehen, die zuvor aufgrund menschlicher Voreingenommenheit abgelehnt wurden.
„Intestine umgesetzt“ ist jedoch nicht so einfach zu erreichen. Maria Fernandez-Vidal von CGAP und Datenwissenschaftlerberater Jacobo Menajovsky betonen dass: „Obwohl intestine entwickelte Algorithmen aufgrund ihrer Fähigkeit, mehrere Variablen und die Beziehungen zwischen ihnen zu analysieren, genauere Vorhersagen als Menschen treffen können, können schlecht entwickelte Algorithmen oder solche, die auf unzureichenden oder unvollständigen Daten basieren, Entscheidungen leicht verschlechtern.“ Hinzu kommt das Factor der Zeit sowie die Verstärkung der Voreingenommenheit, wenn Algorithmen das, was sie lernen, iterieren. Im besten Fall sind digitale Kredite für Verbraucherinnen vielversprechend. Im schlimmsten Fall werden durch den ausschließlichen Einsatz von künstlicher Intelligenz und maschinellem Lernen unterrepräsentierte Bevölkerungsgruppen, insbesondere Frauen, systematisch ausgeschlossen
Es ist leicht, dieses Downside zu erkennen und voreilige regulatorische Schlussfolgerungen zu ziehen. Aber während Ladies's World Banking dieses Thema untersucht, beginnen wir zunächst mit dem Geschäftsszenario für die Abschwächung algorithmischer Verzerrungen. Dieses Projekt zu geschlechtsspezifischer algorithmischer Voreingenommenheit versucht Folgendes zu verstehen:
- Einen Algorithmus einrichten: Wie entsteht Voreingenommenheit und wie wächst sie mit der Zeit?
- Verwendung eines Algorithmus: Welche Verzerrungen führen Klassifizierungsmethoden ein?
- Pflege eines Algorithmus: Welche Möglichkeiten gibt es, Voreingenommenheit zu mildern?
Wir gehen davon aus, dass fairere Algorithmen langfristig zu höheren Gewinnen führen können. Wenn Algorithmen digitalen Kreditunternehmen dabei helfen können, bisher unerschlossene Märkte zu bedienen, können neue Unternehmen wachsen, Verbraucher Zugang zu größeren Kreditvolumina erhalten und die Branche Zugang zu neuen Märkten erhalten. Digitale Kredite mit integrativeren Algorithmen können den schwer fassbaren „fehlenden mittleren“ KMU, von denen ein Drittel von Frauen geführt wird, Kredite verschaffen.
Wie untersuchen wir dieses Thema? Zunächst führen wir (und haben dies auch getan – vielen Dank an diejenigen, die bereits teilgenommen haben!) eine Reihe wichtiger Informanteninterviews mit Fintech-Innovatoren, Vordenkern und Akademikern durch. Dies ist ein neuer Bereich für Ladies's World Banking, und wir möchten sicherstellen, dass unsere Arbeit auf bestehenden Arbeiten sowohl innerhalb als auch außerhalb der Finanzdienstleistungsbranche aufbaut, um die Erkenntnisse anderer zu nutzen. Als Nächstes erstellen wir einen Datensatz, der auf Standarddaten basiert, die von Smartphones stammen würden, und wenden Standardalgorithmen an, um zu verstehen, wie verschiedene Ansätze das Gleichgewicht zwischen Equity und Effizienz verändern, sowohl zu einem bestimmten Zeitpunkt als auch im Laufe der Zeit Der Algorithmus lernt und wächst weiter. Abschließend fassen wir diese Ergebnisse in einem Bericht und einem begleitenden dynamischen Modell zusammen, um Voreingenommenheit nachweisen zu können – was in den nächsten Monaten erfolgen wird.
Wir würden uns freuen, von Ihnen zu hören – wenn Sie mit uns über diesen Workstream sprechen möchten oder einfach nur auf dem Laufenden bleiben möchten, während wir vorankommen, wenden Sie sich bitte an mich, Sonja Kelly, unter sk@womensworldbanking.org.