February 8, 2023

Die AI Tafelgeschirr Cards von Amazon werden publik sein, damit die Kunden die Einschränkungen sehen können. (Repräsentativ)

Las Vegas:

Amazon.com Inc plant die Tutorial von Warnkarten für jedes Software, die von seiner Cloud-Computing-Sparte verkauft wird, aufgrund der Tatsache dieser anhaltenden Unruhe, dass künstlich intelligente Systeme verschiedene Gruppen diskriminieren können, sagte dies Unternehmen im Unterschied zu Reuters.

Verwandt wie nachhaltig Nährwertetiketten werden die sogenannten AI Tafelgeschirr Cards von Amazon publik zugänglich sein, damit die Geschäftskunden die Einschränkungen bestimmter Cloud-Dienste wie Gesichtserkennung und Audiotranskription sehen können. Dies Ziel wäre es, eine irrtümliche Verwendung seiner Technologie zu verhindern, zu verdeutlichen, wie seine Systeme tun und den Datenschutz zu verwalten, sagte Amazon.

Dies Unternehmen ist nicht dies erste, dies solche Warnungen veröffentlicht. International Business Machines Corp, ein kleinerer Schauspieler in dieser Cloud, hat dies vor Jahren getan. Jener Cloud-Lieferant Nr. 3, Google von Alphabet Inc., hat beiläufig noch mehr Einzelheiten zu den Datensätzen veröffentlicht, die er verwendet hat, um verdongeln Teil seiner KI zu trainieren.

Die Wettkampf von Amazon, seine ersten drei Servicekarten am Mittwoch herauszugeben, spiegelt jedoch den Versuch des Branchenführers wider, sein Image zu ändern, nachdem ein öffentlicher Streit mit Kritikern dieser Bürgerrechte vor Jahren den Eindruck vermachen hatte, dass ihm die KI-Morallehre weniger am Schmiegen liegt qua seinen Konkurrenten. Jener Umzug fällt mit dieser jährlichen Cloud-Tagung des Unternehmens in Las Vegas zusammen.

Michael Kearns, Professor an dieser University of Pennsylvania und seit dem Zeitpunkt 2020 Wissenschaftler wohnhaft bei Amazon, sagte, die Wettkampf, die Karten auszustellen, sei hinauf Datenschutz- und Sportlichkeit-Audits dieser Software des Unternehmens zurückzuführen. Die Karten würden KI-Ethikbedenken publik erinnern, zu einer Zeit, qua sich eine technische Regulierung abzeichnete, sagte Kearns.

„Dies Größte an diesem Start ist die Verpflichtung, dies kontinuierlich und hinauf einer erweiterten Grund zu tun“, sagte er.

Amazon wählte Software, die heikle demografische Probleme berührt, qua Start für jedes seine Servicekarten, von denen Kearns erwartet, dass sie im Laufe dieser Zeit detaillierter werden.

HAUTFARBEN

Einer dieser Dienste heißt “Rekognition”. Im Jahr 2019 bestritt Amazon eine Studie, in dieser es hieß, die Technologie habe Schwierigkeiten, dies Geschlecht von Personen mit dunkleren Hauttönen zu identifizieren. Daher nachher dieser Mord von George Floyd, einem unbewaffneten Schwarzen, während einer Festnahme im Jahr 2020 erließ dies Unternehmen ein Moratorium für jedes die Verwendung seiner Gesichtserkennungssoftware durch die Polizei.

Jetzt sagt Amazon in einer von Reuters eingesehenen Tafelgeschirr-Plan, dass Rekognition den Abgleich von „Bildern nicht unterstützt, die zu verschwommen und körnig sind, qua dass dies Gesicht von einem Menschen erkannt werden könnte, oder wohnhaft bei denen große Teile des Gesichts durch Haare, Hände usw. verhüllt sind andere Objekte.” Es warnt beiläufig vor übereinstimmenden Gesichtern in Cartoons und anderen “nichtmenschlichen Entitäten”.

In einer anderen Warnkarte von Reuters zur Audiotranskription erklärt Amazon: „Eine uneinheitliche Entwicklung dieser Audioeingaben könnte zu unfairen Ergebnissen für jedes verschiedene demografische Gruppen resultieren.“ Laut Kearns war die genaue Umschrift dieser breiten Palette regionaler Akzente und Dialekte zurückgezogen in Nordamerika eine Herausforderung, an dieser Amazon gearbeitet hatte.

Jessica Newman, Direktorin dieser AI Security Initiative an dieser University of California in Berkeley, sagte, dass Technologieunternehmen solche Offenlegungen zunehmend qua Vorzeichen für jedes verantwortungsvolle KI-Praktiken veröffentlichen, obwohl sie noch verdongeln weiten Weg vor sich nach sich ziehen.

„Wir sollten nicht hinauf den guten Willen von Unternehmen angewiesen sein, grundlegende Einzelheiten von Systemen bereitzustellen, die verdongeln enormen Kraft hinauf dies Leben dieser Menschen nach sich ziehen können“, sagte sie und forderte mehr Industriestandards.

Tech-Giganten nach sich ziehen damit gekämpft, solche Dokumente so von kurzer Dauer zu zeugen, dass die Personen sie Vorlesung halten können, immerhin trotz genügend detailliert und jetzt, um häufige Software-Optimierungen widerzuspiegeln, sagte eine Person, die wohnhaft bei zwei großen Unternehmen an Nährwertkennzeichnungen gearbeitet hat.

(Mit Ausnahmefall dieser Headline wurde ebendiese Vergangenheit nicht von NDTV-Mitarbeitern bearbeitet und von einem syndizierten Feed veröffentlicht.)

Vorgestelltes Video des Tages

Anupam Kher zu NDTV in dieser Schlange „Kashmir Files“: „Geplante Strategie von Toolkit Gangart“

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *