Nachrichten

Können wir unsere Roboter weniger voreingenommen machen als wir?

In einer Sommernacht in Dallas im Jahr 2016 schrieb ein Bombenroboter technologische Geschichte. Polizisten hatten ungefähr ein Pfund C-4-Sprengstoff daran befestigt, das Gerät an eine Wand in der Nähe eines aktiven Schützen gelenkt und die Anklage zur Detonation gebracht. Bei der Explosion wurde der Angreifer Micah Xavier Johnson als erste Person in den USA von einem Polizeiroboter getötet.

Danach nannte der damalige Dallas-Polizeichef David Brown den Entscheidungssound. Bevor der Roboter angriff, hatte Herr Johnson fünf Offiziere erschossen, neun weitere verletzt und zwei Zivilisten geschlagen, und die Verhandlungen waren ins Stocken geraten. Das Senden der Maschine sei sicherer als das Senden menschlicher Offiziere, sagte Brown.

Einige Robotikforscher waren jedoch besorgt. “Bomb Squad” -Roboter werden als Werkzeuge zur sicheren Entsorgung von Bomben vermarktet, nicht zur Abgabe an Ziele. (Im Jahr 2018 beendeten Polizeiangebote in Dixmont, Maine, eine Schießerei auf ähnliche Weise.) Ihr Beruf hatte die Polizei mit einer neuen Form tödlicher Waffen versorgt und bei ihrer ersten Verwendung als solche einen Schwarzen getötet.

“Eine wichtige Facette des Falls ist, dass der Mann zufällig Afroamerikaner ist”, schrieben Ayanna Howard, eine Robotikforscherin bei Georgia Tech, und Jason Borenstein, ein Kollege an der School of Public Policy der Universität, in einem Artikel aus dem Jahr 2017 mit dem Titel “The Hässliche Wahrheit über uns selbst und unsere Roboterkreationen “in der Zeitschrift Science and Engineering Ethics.

Wie fast alle heute verwendeten Polizeiroboter war das Dallas-Gerät eine unkomplizierte Fernbedienungsplattform. In Labors auf der ganzen Welt werden jedoch anspruchsvollere Roboter entwickelt, die künstliche Intelligenz einsetzen, um viel mehr zu erreichen. Ein Roboter mit Algorithmen zum Beispiel zur Gesichtserkennung oder zur Vorhersage von Handlungen von Menschen oder zur alleinigen Entscheidung, „nicht tödliche“ Projektile abzufeuern, ist ein Roboter, den viele Forscher als problematisch empfinden. Der Grund: Viele der heutigen Algorithmen sind voreingenommen gegenüber Farbigen und anderen, die sich von den weißen, männlichen, wohlhabenden und leistungsfähigen Designern der meisten Computer- und Robotersysteme unterscheiden.

Während Mr. Johnsons Tod aus einer menschlichen Entscheidung resultierte, könnte eine solche Entscheidung in Zukunft von einem Roboter getroffen werden – einem von Menschen geschaffenen, dessen Urteilsfehler eingebrannt sind.

“Angesichts der gegenwärtigen Spannungen, die sich aus Erschießungen afroamerikanischer Männer von Ferguson bis Baton Rouge durch die Polizei ergeben”, schrieb Dr. Howard, Leiter der Organisation Black in Robotics, und Dr. Borenstein, “ist es beunruhigend, dass Roboter-Friedenstruppen, einschließlich der Polizei.” und Militärrobotern wird irgendwann mehr Entscheidungsfreiheit eingeräumt, ob sie ein menschliches Leben führen sollen, insbesondere wenn Probleme im Zusammenhang mit Voreingenommenheit nicht gelöst wurden. ”

Im vergangenen Sommer haben Hunderte von Forschern von A. I. und Robotik Erklärungen unterzeichnet, in denen sie sich dazu verpflichten, die Funktionsweise ihrer Felder zu ändern. Eine Aussage der Organisation Black in Computing löste einen Alarm aus: „Die Technologien, die wir zum Nutzen der Gesellschaft entwickeln, stören auch die schwarzen Gemeinschaften durch die Verbreitung von Rassenprofilen. Ein weiteres Manifest, “Keine Gerechtigkeit, keine Roboter”, verpflichtet seine Unterzeichner, sich zu weigern, mit oder für Strafverfolgungsbehörden zu arbeiten.

In den letzten zehn Jahren haben sich Beweise dafür angesammelt, dass „Voreingenommenheit die Erbsünde von A. I ist“, stellt Dr. Howard in ihrem Hörbuch von 2020 fest: „Sex, Rasse und Roboter. Es hat sich gezeigt, dass Gesichtserkennungssysteme weiße Gesichter genauer identifizieren als die anderer Personen. (Im Januar teilte ein solches System der Polizei von Detroit mit, dass es Fotos eines mutmaßlichen Diebes mit dem Führerscheinfoto von Robert Julian-Borchak Williams, einem schwarzen Mann ohne Verbindung zum Verbrechen, abgeglichen habe.)

Es gibt A. I.-Systeme, mit denen selbstfahrende Autos Fußgänger erkennen können. Im vergangenen Jahr stellten Benjamin Wilson von Georgia Tech und seine Kollegen fest, dass acht solcher Systeme Menschen mit dunkleren Hauttönen schlechter erkennen als blassere. Joy Buolamwini, Gründerin der Algorithmic Justice League und Diplom-Forscherin am M. I. T. Media Lab, ist in zwei verschiedenen Labors auf interaktive Roboter gestoßen, die sie nicht erkennen konnten. (Für ihre Arbeit mit einem solchen Roboter bei M. I. T. trug sie eine weiße Maske, um gesehen zu werden.)

Die langfristige Lösung für solche Fehler besteht darin, “mehr Leute am Tisch zu haben, die wie die US-Bevölkerung aussehen, wenn Technologie entwickelt wird”, sagte Chris S. Crawford, Professor an der Universität von Alabama, der am direkten Gehirn arbeitet -zu Robotersteuerungen. Algorithmen, die hauptsächlich auf weißen männlichen Gesichtern trainiert werden (von überwiegend weißen männlichen Entwicklern, die die Abwesenheit anderer Arten von Personen im Prozess nicht bemerken), können weiße Männer besser erkennen als andere Personen.

“Ich persönlich war im Silicon Valley, als einige dieser Technologien entwickelt wurden”, sagte er. Mehr als einmal fügte er hinzu: “Ich würde mich hinsetzen und sie würden es an mir testen und es würde nicht funktionieren. Und ich dachte: Weißt du, warum es nicht funktioniert, oder? ”

Roboterforscher sind in der Regel dazu ausgebildet, schwierige technische Probleme zu lösen und nicht gesellschaftliche Fragen zu berücksichtigen, wer Roboter herstellen darf oder wie sich die Maschinen auf die Gesellschaft auswirken. So fiel auf, dass viele Robotiker Erklärungen unterschrieben, in denen sie sich für die Beseitigung von Ungerechtigkeiten im Labor und außerhalb des Labors verantwortlich machten. Sie verpflichteten sich zu Maßnahmen, die darauf abzielen, die Schaffung und den Einsatz von Robotern weniger ungerecht zu machen.

“Ich denke, die Proteste auf der Straße haben wirklich Wirkung gezeigt”, sagte Odest Chadwicke Jenkins, ein Robotiker und A. I.-Forscher an der Universität von Michigan. Auf einer Konferenz Anfang dieses Jahres formulierte Dr. Jenkins, der an Robotern arbeitet, die Menschen unterstützen und mit ihnen zusammenarbeiten können, seinen Vortrag als Entschuldigung an Herrn Williams. Obwohl Dr. Jenkins nicht mit Gesichtserkennungsalgorithmen arbeitet, fühlte er sich für das allgemeine Versagen des A. I.-Bereichs verantwortlich, Systeme zu entwickeln, die für alle genau sind.

“Dieser Sommer war anders als jeder andere, den ich zuvor gesehen habe”, sagte er. “Kollegen, die ich kenne und respektiere, war vielleicht das erste Mal, dass ich sie in diesen Begriffen über systemischen Rassismus sprechen hörte. Das war sehr ermutigend. Er sagte, er hoffe, dass das Gespräch fortgesetzt und zu Maßnahmen geführt werde, anstatt sich mit einer Rückkehr zum normalen Geschäftsbetrieb aufzulösen.

Dr. Jenkins war einer der Hauptorganisatoren und Autoren eines der Sommermanifeste von Black in Computing. Das Dokument wurde von fast 200 schwarzen Informatikern und mehr als 400 Verbündeten (entweder schwarzen Gelehrten in anderen Bereichen oder nicht schwarzen Menschen, die in verwandten Bereichen arbeiten) unterzeichnet und beschreibt die persönlichen Erfahrungen der schwarzen Gelehrten mit „dem strukturellen und institutionellen Rassismus und der Voreingenommenheit“ integriert in die Gesellschaft, professionelle Netzwerke, Expertengemeinschaften und Branchen. ”

In der Erklärung werden Reformen gefordert, einschließlich der Beendigung der Belästigung schwarzer Studenten durch Polizeibeamte auf dem Campus und der Tatsache, dass Schwarze ständig daran erinnert werden, dass andere nicht glauben, dass sie dazu gehören. (Dr. Jenkins, stellvertretender Direktor des Michigan Robotics Institute, sagte, die häufigste Frage, die er auf dem Campus hört, sei: „Sind Sie in der Fußballmannschaft?“) Alle für diesen Artikel befragten nicht weißen, nicht männlichen Forscher erinnerten sich an solche Momente . In ihrem Buch erinnert sich Dr. Howard, wie sie in einen Raum gegangen ist, um ein Treffen über Navigations-A.I. Für einen Mars-Rover zu leiten, und dass ihr gesagt wurde, sie sei am falschen Ort, weil Sekretärinnen den Flur entlang arbeiteten.

Der offene Brief ist mit einer Seite mit bestimmten Aktionselementen verknüpft. Die Themen reichen von der Nichtverlegung der gesamten Arbeit der „Vielfalt“ auf die Schultern von Minderheitenforschern bis hin zur Sicherstellung, dass mindestens 13 Prozent der von Organisationen und Universitäten ausgegebenen Mittel an Unternehmen in Schwarzbesitz gehen, bis hin zur Verknüpfung von Kennzahlen zur Rassengerechtigkeit mit Bewertungen und Beförderungen. Außerdem werden die Leser gebeten, Organisationen zu unterstützen, die sich der Förderung von Farbigen im Bereich Computer und A. I. widmen, darunter Black in Engineering, Daten für schwarze Leben, Black Girls Code, Black Boys Code und Black in A. I.

Als der offene Brief von Black in Computing befasste, wie Roboter und A. I. hergestellt werden, erschien ungefähr zur gleichen Zeit ein weiteres Manifest, das sich darauf konzentrierte, wie Roboter von der Gesellschaft eingesetzt werden. Der offene Brief mit dem Titel „Keine Gerechtigkeit, keine Roboter“ verpflichtet seine Unterzeichner, Roboter und Roboterforschung von Strafverfolgungsbehörden fernzuhalten. Da viele solcher Agenturen „Brutalität und Rassismus gegenüber unseren Gemeinden aktiv demonstriert haben“, heißt es in der Erklärung: „Wir können diesen Polizeikräften nicht nach Treu und Glauben die Arten von Robotertechnologien anvertrauen, für deren Erforschung und Entwicklung wir verantwortlich sind. ”

Im vergangenen Sommer begannen zwei Colorado-Robotiker – Tom Williams von der Colorado School of Mines und Kerstin Haring von der Universität von Denver – mit der Ausarbeitung von „No Justice, No Robots. Bisher haben sich 104 Personen angemeldet, darunter führende Forscher in Yale und M. I. T. sowie jüngere Wissenschaftler an Institutionen im ganzen Land.

“Die Frage ist: Wollen wir als Robotiker der Polizei das tun, was sie gerade tun?” Fragte Dr. Williams. „Ich lebe in Denver und habe diesen Sommer während der Proteste gesehen, wie die Polizei ein paar Blocks von mir entfernt Menschen vergast hat. Die Kombination, Polizeibrutalität in den Nachrichten zu sehen und sie dann in Denver zu sehen, war der Katalysator. ”

Dr. Williams ist nicht gegen die Zusammenarbeit mit Regierungsbehörden. Er hat für die Armee, die Marine und die Luftwaffe geforscht, unter anderem, ob Menschen Anweisungen und Korrekturen von Robotern akzeptieren würden. (Seine Studien haben herausgefunden, dass sie würden.) Das Militär, sagte er, sei ein Teil jedes modernen Staates, während die amerikanische Polizeiarbeit ihren Ursprung in rassistischen Institutionen wie Sklavenpatrouillen habe – “problematische Ursprünge, die die Art und Weise, wie die Polizeiarbeit durchgeführt wird, weiterhin beeinflussen”, sagte er in einer E-Mail.

“Keine Gerechtigkeit, keine Roboter” erwies sich in der kleinen Welt der Robotiklabors als kontrovers, da einige Forscher der Ansicht waren, dass es nicht sozial verantwortlich sei, den Kontakt mit der Polizei zu meiden.

“Ich war bestürzt darüber”, sagte Cindy Bethel, Direktorin des Labors für soziale, therapeutische und Robotersysteme an der Mississippi State University. “Es ist so eine pauschale Aussage”, sagte sie. “Ich denke, es ist naiv und nicht gut informiert. Dr. Bethel arbeitet seit einem Jahrzehnt mit lokalen und staatlichen Polizeikräften an Roboterprojekten, sagte sie, weil sie glaubt, dass Roboter die Arbeit der Polizei sowohl für Beamte als auch für Zivilisten sicherer machen können.

Ein Roboter, den Dr. Bethel mit ihrer örtlichen Polizeibehörde entwickelt, ist mit Nachtsichtkameras ausgestattet, mit denen Beamte einen Raum ausspähen können, bevor sie ihn betreten. “Jeder ist sicherer, wenn es kein Überraschungsmoment gibt, wenn die Polizei Zeit zum Nachdenken hat”, sagte sie.

Die Einhaltung der Erklärung würde es Forschern verbieten, an Robotern zu arbeiten, die Such- und Rettungsaktionen durchführen, oder auf dem neuen Gebiet der „sozialen Robotik“. Eines von Dr. Bethels Forschungsprojekten ist die Entwicklung von Technologien, die kleine, menschenähnliche Roboter verwenden, um Kinder zu interviewen, die missbraucht, sexuell angegriffen, gehandelt oder auf andere Weise traumatisiert wurden. In einer ihrer jüngsten Studien waren 250 Kinder und Jugendliche, die über Mobbing befragt wurden, häufig bereit, einem Roboter Informationen anzuvertrauen, die sie einem Erwachsenen nicht preisgeben würden.

Wenn ein Ermittler einen Roboter in einem anderen Raum „fährt“, könnte dies zu weniger schmerzhaften und informativen Interviews mit Überlebenden von Kindern führen, sagte Dr. Bethel, ein ausgebildeter forensischer Interviewer.

“Sie müssen den Problembereich verstehen, bevor Sie über Robotik und Polizeiarbeit sprechen können”, sagte sie. “Sie machen viele Verallgemeinerungen ohne viele Informationen. ”

Dr. Crawford gehört zu den Unterzeichnern des offenen Briefes „No Justice, No Robots“ und „Black in Computing“. “Und Sie wissen, wann immer so etwas passiert oder Bewusstsein geschaffen wird, insbesondere in der Gemeinde, in der ich tätig bin, versuche ich sicherzustellen, dass ich es unterstütze”, sagte er.

Dr. Jenkins lehnte es ab, die Erklärung „Keine Gerechtigkeit“ zu unterzeichnen. “Ich dachte, es wäre eine Überlegung wert”, sagte er. „Aber am Ende dachte ich, dass das größere Problem wirklich die Repräsentation im Raum ist – im Forschungslabor, im Klassenzimmer und im Entwicklungsteam, der Geschäftsleitung. “Ethikdiskussionen sollten in dieser ersten grundlegenden Bürgerrechtsfrage verwurzelt sein, sagte er.

Dr. Howard hat keine der beiden Erklärungen unterschrieben. Sie bekräftigte ihren Standpunkt, dass voreingenommene Algorithmen zum Teil das Ergebnis der verzerrten Bevölkerungszahl sind – weiß, männlich, leistungsfähig -, die die Software entwirft und testet.

“Wenn externe Personen mit ethischen Werten nicht mit diesen Strafverfolgungsbehörden zusammenarbeiten, wer dann?” Sie sagte. “Wenn Sie” Nein “sagen, werden andere” Ja “sagen. “Es ist nicht gut, wenn niemand im Raum ist, der sagt:” Ähm, ich glaube nicht, dass der Roboter töten sollte. ’”

[ Wie die Science Times-Seite auf Facebook. | Melden Sie sich für die Newsletter der Science Times.]

Entwickelt, um zu täuschen: Sehen diese Leute für Sie echt aus?

Die Personen in dieser Geschichte kommen Ihnen möglicherweise bekannt vor, wie Sie sie auf Facebook, Twitter oder Tinder gesehen haben. Aber sie existieren nicht. Sie wurden aus dem Kopf eines Computers geboren, und die Technologie hinter ihnen verbessert sich in erstaunlichem Tempo.

İlgili Makaleler

Bir cevap yazın

Başa dön tuşu