22.4 C
New York City
Samstag, Mai 10, 2025

Hilfe gesucht: Ein globaler Vorstoß in Richtung algorithmischer Equity


Fragen und Antworten mit Sonja Kelly von Girls's World Banking und Alex Rizzi von CFI, aufbauend darauf Bericht von Girls's World Banking Und Bericht des Finanzministeriums zur algorithmischen Voreingenommenheit

Es scheint, dass es schon seit einiger Zeit Gespräche über voreingenommene KI gibt. Ist es zu spät, dies anzusprechen?

Alex: Es ist genau der richtige Zeitpunkt! Auch wenn es den Anschein hat, als würden weltweite Gespräche über verantwortungsvolle Technologie schon seit Jahren geführt, sind sie nicht direkt auf unserem Fachgebiet verankert. Beispielsweise wurden im Bereich der inklusiven Finanzierung noch keine umfassenden Exams von Debiasing-Instruments durchgeführt (obwohl wir, Sonja, gespannt sind, von den Ergebnissen Ihrer bevorstehenden Arbeit in diesem Bereich zu hören!) oder von Mechanismen wie Kreditgarantien, um Anreize für digitale Kreditgeber zur Enlargement zu schaffen den Pool der Bewerber, die ihre Algorithmen für kreditwürdig halten. Gleichzeitig werden in Schwellenländern eine Reihe von Datenschutzrahmenwerken verabschiedet, die sich an der europäischen DSGVO orientieren und Verbrauchern beispielsweise Datenrechte im Zusammenhang mit automatisierten Entscheidungen einräumen. Diese Frameworks sind sehr neu und es ist noch unklar, ob und wie sie zu mehr algorithmischer Rechenschaftspflicht führen könnten. Es ist additionally absolut nicht zu spät, dieses Downside anzugehen.

Sonja: Ich stimme voll und ganz zu, dass es jetzt an der Zeit ist, Alex. Erst vor ein paar Wochen sahen wir einen Bitte um Informationen Hier in den USA erfahren Sie, wie Finanzdienstleister künstliche Intelligenz und maschinelles Lernen nutzen. Es ist klar, dass es auf politischer und regulatorischer Seite ein Interesse daran gibt, die Herausforderungen, die diese Technologien mit sich bringen, besser zu verstehen und anzugehen. Dies macht es für Finanzdienstleister zu einem idealen Zeitpunkt, proaktiv mit Leitplanken umzugehen, um Voreingenommenheit durch Algorithmen zu verhindern. Ich denke auch, dass die Technologie es uns ermöglicht, viel mehr gegen das Downside der Voreingenommenheit zu unternehmen – wir können Algorithmen tatsächlich so umstellen, dass sie Voreingenommenheit prüfen und mit sehr geringem Aufwand abmildern. Wir haben jetzt sowohl die Motivation als auch die Werkzeuge, um dieses Downside im großen Stil angehen zu können.

Was sind einige der problematischsten Traits, die wir beobachten und die zu algorithmischer Verzerrung beitragen?

Sonja: Auf die Gefahr hin, zu weit gefasst zu sein, denke ich, dass der größte Development mangelndes Bewusstsein ist. Wie ich bereits sagte, muss es nicht schwer sein, algorithmische Verzerrungen zu beseitigen, aber es erfordert, dass jeder – auf allen Ebenen und in allen Verantwortlichkeiten – die Fortschritte bei der Minderung von Verzerrungen versteht und verfolgt. Das größte Warnsignal, das ich in unseren Interviews gesehen habe, die zu unserem Bericht beitrugen, conflict, als eine Führungskraft sagte, dass Voreingenommenheit in ihrer Organisation kein Downside sei. Mein Co-Autor Mehrdad Mirpourian und ich haben herausgefunden, dass es Voreingenommenheit gibt stets ein Downside. Es ergibt sich aus voreingenommenen oder unausgewogenen Daten, dem Code des Algorithmus selbst oder der endgültigen Entscheidung darüber, wer Kredit erhält und wer nicht. Kein Unternehmen kann alle Definitionen von Equity für alle Gruppen gleichzeitig erfüllen. Die Möglichkeit einer Voreingenommenheit einzugestehen, kostet nichts, und es ist nicht so schwierig, sie zu beheben. Irgendwie gerät es von der Tagesordnung, was bedeutet, dass wir das Bewusstsein schärfen müssen, damit Organisationen Maßnahmen ergreifen.

Alex: Eines der Konzepte, über die wir viel nachgedacht haben, ist die Idee, wie digitale Datenspuren bestehende gesellschaftliche Ungleichheiten widerspiegeln oder weiter verschlüsseln könnten. Das wissen wir zum Beispiel Frauen besitzen seltener ein Telefon als Männerund es ist weniger wahrscheinlich, dass sie das cellular Web oder bestimmte Apps nutzen; Diese Unterschiede führen zu unterschiedlichen Datenpfaden und verraten einem Anbieter möglicherweise nicht die ganze Geschichte über das wirtschaftliche Potenzial einer Frau. Und was ist mit den unzähligen anderen? Randgruppenderen unterschiedliche Datenspuren nicht klar artikuliert sind?

Wer muss sonst noch an diesem Gespräch teilnehmen, wenn wir vorankommen?

Alex: Für meinen Kollegen Alex Kessler und mich conflict ein großer Vorteil der Sondierungsarbeit, dass es für Nicht-Datenwissenschaftler viele Einstiegspunkte in diese Gespräche gibt und es entscheidend ist, dass eine Reihe von Stimmen am Tisch sind. Ursprünglich hatten wir die Vorstellung, dass wir die Code-Erstellungs- und maschinellen Lernmodelle beherrschen müssen, um einen Beitrag leisten zu können. Die Gespräche sollten jedoch interdisziplinär sein und ein ausgeprägtes Verständnis für die Kontexte widerspiegeln, in denen diese Algorithmen eingesetzt werden.

Sonja: Ich liebe das. Es ist genau richtig. Ich würde mir auch mehr mediale Aufmerksamkeit für dieses Thema wünschen. Aus anderen Branchen wissen wir, dass wir durch Peer-Studying Innovationen steigern können. Wenn es zur Normalität wird, sowohl die Versprechen als auch die Fallstricke von KI und maschinellem Lernen zu teilen, können wir daraus lernen. Die Aufmerksamkeit der Medien würde uns dabei helfen, dorthin zu gelangen.

Was sind hier die unmittelbaren nächsten Schritte? Worauf konzentrieren Sie sich morgen zu ändern?

Sonja: Wenn ich unseren Bericht mit externem Publikum teile, höre ich zunächst Schock und Besorgnis über die bloße Idee, mithilfe von Maschinen Vorhersagen über das Rückzahlungsverhalten von Menschen zu treffen. Aber unsere technologiegestützte Zukunft muss nicht wie ein dystopischer Science-Fiction-Roman aussehen. Technologie kann die finanzielle Inklusion verbessern, wenn sie richtig eingesetzt wird. Unser nächster Schritt sollte darin bestehen, mit Pilotversuchen und Proof-Take a look at-Ansätzen zu beginnen, um algorithmische Verzerrungen abzumildern. Girls's World Banking wird dies in den nächsten Jahren in Zusammenarbeit mit der tun Universität Zürich und knowledge.org mit einer Reihe unserer Netzwerkmitglieder, und wir werden unsere Erkenntnisse im Laufe der Zeit weitergeben. Wenn wir einige grundlegende Ressourcen zusammentragen und beweisen, was funktioniert, kommen wir der Equity näher.

Alex: Es sind noch frühe Tage. Wir gehen nicht davon aus, dass es in absehbarer Zeit eine allgemeine Angleichung an Debiasing-Instruments oder bewährte Verfahren zur Durchsetzung von Datenschutzrahmen in Schwellenländern geben wird. Gerade jetzt ist es wichtig, dieses Thema einfach auf den Radar derer zu bringen, die in der Lage sind, Anbieter, Regulierungsbehörden und Investoren zu beeinflussen und mit ihnen in Kontakt zu treten. Nur mit diesem Bewusstsein können wir beginnen, bewährte Verfahren, den Austausch unter Gleichgesinnten und den Kapazitätsaufbau voranzutreiben.

Besuchen Frauen-Weltbanking Und CFI Web sites, um über Algorithmen-Bias und finanzielle Inklusion auf dem Laufenden zu bleiben.



Related Articles

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Latest Articles