Warum A. I. Angst vor uns haben sollte

Warum A. I. Angst vor uns haben sollte

Warum A. I. Angst vor uns haben sollte

Weil wohlwollende Bots Trottel sind. Außerdem Rassismus in medizinischen Fachzeitschriften, die „Krise“ der Spermienzählung und mehr in der …


Weil wohlwollende Bots Trottel sind. Außerdem Rassismus in medizinischen Fachzeitschriften, die „Krise“ der Spermienzählung und mehr in der Freitagsausgabe des Science Times-Newsletters.
Erdeundleben. com-

Künstliche Intelligenz holt unsere nach und nach ein. A. I.-Algorithmen können uns jetzt konsequent bei Schach, Poker und Multiplayer-Videospielen schlagen, Bilder von menschlichen Gesichtern erzeugen, die von echten nicht zu unterscheiden sind, Nachrichtenartikel schreiben (nicht diesen!) und sogar Liebesgeschichten schreiben und Autos besser fahren als die meisten Teenager.

Aber A. I. ist noch nicht perfekt, wenn Woebot ein Indikator ist. Woebot, wie Karen Brown diese Woche in der Science Times schrieb, ist eine KI-betriebene Smartphone-App, die darauf abzielt, kostengünstige Beratung anzubieten, indem sie Benutzer durch Dialoge durch die grundlegenden Techniken der kognitiven Verhaltenstherapie führt. Viele Psychologen bezweifeln jedoch, ob ein KI-Algorithmus jemals die Art von Empathie ausdrücken kann, die erforderlich ist, damit die zwischenmenschliche Therapie funktioniert.

„Diese Apps verkürzen wirklich die wesentliche Zutat, die – wie viele Beweise zeigen – in der Therapie hilft, nämlich die therapeutische Beziehung“, sagt Linda Michaels, eine in Chicago ansässige Therapeutin und Co-Vorsitzende des Psychotherapy Action Network, einer Berufsgruppe , sagte der Times.

Empathie ist natürlich keine Einbahnstraße, und wir Menschen zeigen für Bots nicht viel mehr davon als Bots für uns. Zahlreiche Studien haben gezeigt, dass Menschen, die in eine Situation gebracht werden, in der sie mit einer wohlwollenden KI kooperieren können, mit geringerer Wahrscheinlichkeit dies tun, als wenn der Bot eine echte Person wäre.

„Es scheint etwas in Bezug auf Gegenseitigkeit zu fehlen“, sagte mir Ophelia Deroy, Philosophin an der Ludwig-Maximilians-Universität in München. „Wir würden einen vollkommen Fremden grundsätzlich besser behandeln als A. I.“

In einer kürzlich durchgeführten Studie haben Dr. Deroy und ihre neurowissenschaftlichen Kollegen versucht zu verstehen, warum das so ist. Die Forscher paarten menschliche Probanden mit unsichtbaren Partnern, manchmal Menschen und manchmal KI; Jedes Paar spielte dann eine Reihe klassischer Wirtschaftsspiele – Trust, Prisoner’s Dilemma, Chicken und Stag Hunt sowie eines von ihnen namens Reziprozität – das entwickelt wurde, um Kooperation zu messen und zu belohnen.

Unser Mangel an Gegenseitigkeit gegenüber KI wird allgemein als Mangel an Vertrauen angesehen. Es ist schließlich hyper-rational und gefühllos, sicherlich nur für sich selbst, kaum zu kooperieren, also warum sollten wir? Dr. Deroy und ihre Kollegen kamen zu einem anderen und vielleicht weniger beruhigenden Schluss. Ihre Studie ergab, dass Menschen mit geringerer Wahrscheinlichkeit mit einem Bot kooperieren, selbst wenn der Bot daran interessiert ist zu kooperieren. Es ist nicht so, dass wir dem Bot nicht trauen, aber wir tun es: Der Bot ist garantiert wohlwollend, ein Kapital-S-Sauger, also nutzen wir ihn aus.

Diese Schlussfolgerung wurde durch die anschließenden Gespräche mit den Studienteilnehmern bestätigt. „Sie neigten nicht nur dazu, die kooperativen Absichten der künstlichen Agenten nicht zu erwidern“, sagte Dr. Deroy, „sondern wenn sie das Vertrauen des Bots im Grunde missbrauchten, meldeten sie keine Schuld, während sie es bei Menschen taten. “ Sie fügte hinzu: „Sie können den Bot einfach ignorieren und haben nicht das Gefühl, dass Sie eine gegenseitige Verpflichtung gebrochen haben. ”

Dies könnte Auswirkungen auf die reale Welt haben. Wenn wir an A. I. denken, denken wir oft an Alexas und Siris unserer zukünftigen Welt, mit denen wir möglicherweise eine Art intime Beziehung eingehen. Aber die meisten unserer Interaktionen werden einmalige, oft wortlose Begegnungen sein. Stellen Sie sich vor, Sie fahren auf der Autobahn und ein Auto möchte vor Ihnen einfahren. Wenn Sie bemerken, dass das Auto fahrerlos ist, werden Sie es viel weniger wahrscheinlich einlassen. Und wenn die KI Ihr schlechtes Verhalten nicht berücksichtigt, könnte es zu einem Unfall kommen.

„Was die Zusammenarbeit in der Gesellschaft in jeder Größenordnung unterstützt, ist die Etablierung bestimmter Normen“, sagte Dr. Deroy. „Die soziale Funktion von Schuld besteht genau darin, Menschen dazu zu bringen, sozialen Normen zu folgen, die sie dazu bringen, Kompromisse einzugehen, mit anderen zu kooperieren. Und wir haben uns nicht so entwickelt, dass wir soziale oder moralische Normen für nicht fühlende Kreaturen und Bots haben. ”

Das ist natürlich die halbe Prämisse von „Westworld. “ (Zu meiner Überraschung hatte Dr. Deroy noch nie von der HBO-Serie gehört.) Aber eine schuldfreie Landschaft könnte Konsequenzen haben, bemerkte sie: „Wir sind Gewohnheitstiere. Was garantiert also, dass das Verhalten, das sich wiederholt, und wo Sie weniger Höflichkeit, weniger moralische Verpflichtung, weniger Kooperation zeigen, den Rest Ihres Verhaltens nicht färbt und verunreinigt, wenn Sie mit einem anderen Menschen interagieren?“

Ähnliche Konsequenzen gibt es auch für A. I. . „Wenn die Leute sie schlecht behandeln, sind sie darauf programmiert, aus dem zu lernen, was sie erleben“, sagte sie. „Eine KI, die auf die Straße gebracht und auf Wohlwollen programmiert wurde, sollte anfangen, nicht so freundlich zu den Menschen zu sein, weil sie sonst für immer im Verkehr stecken bleibt. “ (Das ist im Grunde die andere Hälfte der Prämisse von „Westworld“.)

Da haben wir es: Der wahre Turing-Test ist Road Rage. Wenn ein selbstfahrendes Auto von hinten wild zu hupen beginnt, weil Sie es abgeschnitten haben, wissen Sie, dass die Menschheit den Gipfel der Errungenschaften erreicht hat. Bis dahin wird die A. I-Therapie hoffentlich ausgereift genug sein, um fahrerlosen Autos zu helfen, ihre Wut-Management-Probleme zu lösen.

<hr/>

Was wir in letzter Zeit metabolisieren

  • „The Age of Reopening Anxiety“ von Anna Russell im New Yorker untersucht die Erfahrung, die so viele von uns heutzutage machen.

  • Dieses unterhaltsame Interview mit dem Mathematiker Jordan Ellenberg in The Atlantic untersucht, warum so viele Pandemievorhersagen gescheitert sind.

  • Wenn Sie ein üppiges Drohnenvideo eines Vulkanausbruchs in Island als Entspannung empfinden, finden Sie hier jede Menge Lava.

  • Weniger entspannend: Dieser Artikel der Washington Post trägt viel dazu bei, die Attraktivität von QAnon zu entschlüsseln, indem er seine Ähnlichkeit mit einem Videospiel (und einem nicht zu gewinnenden) feststellt.

  • Und, ähm, falls Sie es brauchen, hier ist eine klare Erklärung, warum es so ist, einen Covid-Test zu bekommennicht Machen Sie Ihre Stirn magnetisch.

Wissenschaft in der Times, heute vor 58 Jahren

Die Zeitung vom 4. Juni 1963. Wissenschaftsnachrichten der sechsten Klasse auf Seite 79.

WASHINGTON – Eine Gruppe von etwa 50 Sechstklässlern wurde heute rekrutiert, um dem 4.500.000 Dollar teuren Tiros VI-Satelliten zu helfen. Das Wetterbüro der Vereinigten Staaten hat die 12-Jährigen um Hilfe gebeten, nachdem es Schwierigkeiten bei der Identifizierung von Wolkenformationen hatte, die vom Wetterbeobachter im Orbit übertragen wurden. […]

Ein Sprecher des National Weather Satellite Center sagte, die von Tiros übermittelten Bilder zeigten nur graue oder weiße Flecken für Wolkenformationen. Ob die Wolken regentragend seien, könne anhand der Bilder nicht festgestellt und auch nicht genau beschrieben werden, sagte er.

<hr/>

Synchronisieren Sie Ihren Kalender mit dem Sonnensystem

Verpassen Sie nie eine Sonnenfinsternis, einen Meteoritenschauer, einen Raketenstart oder ein anderes astronomisches und Weltraumereignis, das nicht von dieser Welt ist.

Weitere Newsletter, die Ihnen gefallen könnten

Sosyal Medyada Paylaşın:

Düşüncelerinizi bizimle paylaşırmısınız ?

Yorum yazmak için giriş yapmalısın