Kapcsolatba velünk

Számítógépes technológia

Az OASI az első keresőmotor, amely megtalálja azokat az algoritmusokat, amelyeket a kormányok és a vállalatok használnak a polgárok számára

OSSZA MEG:

Közzététel:

on

A regisztrációját arra használjuk, hogy tartalmat nyújtsunk az Ön által jóváhagyott módon, és javítsuk a megértésünket. Bármikor leiratkozhat.

  • Az Eticas Alapítvány által létrehozott OASI Observatory of Algoritms with Social Impact információkat gyűjt több tucat algoritmusból, amelyeket a közigazgatások és a vállalatok használnak szerte a világon, hogy többet megtudjanak társadalmi hatásukról.
  • A cél az, hogy a nyilvánosság számára hozzáférést biztosítsanak a kormányokról és a vállalati algoritmusokról szóló információkhoz, és hogy megismerjék, ki használja, ki fejleszti, milyen fenyegetéseket képviselnek, és ellenőrizték -e, többek között.
  • Az algoritmusok elfogultsága és megkülönböztetése általában többek között az életkor, a nem, a faj vagy a fogyatékosság alapján következik be, de az átláthatóság általános hiánya miatt még mindig nem lehet tudni az összes érintett csoportra gyakorolt ​​következményt.

Az Eticas Foundation nonprofit szervezet, amely az algoritmusok és a mesterséges intelligencia (AI) rendszerek felelősségteljes használatát népszerűsíti, létrehozta a Társadalmi Hatású Algoritmusok Obszervatóriumát (OASI). Ez az Obszervatórium bevezet egy keresőmotort, hogy többet tudjon azokról az eszközökről, amelyek fontos automatizált döntéseket hoznak a polgárok, a fogyasztók és a felhasználók számára világszerte.

Jelenleg mind a vállalatok, mind a közigazgatások automatizálják a döntéseket az algoritmusoknak köszönhetően. Azonban, fejlesztése és üzembe helyezése nem követi a külső minőségellenőrzést, és nem is olyan átlátható, mint amilyennek lennie kellene, ami védtelenné teszi a lakosságot. Ezzel a keresőmotorral bárki többet megtudhat ezekről az algoritmusokról: ki fejlesztette ki, ki használja őket, alkalmazási körük, ellenőrizték -e őket, céljaik vagy társadalmi hatásuk és az általuk jelentett veszélyek.

Abban a pillanatban,, Az OASI 57 algoritmust gyűjt össze, de a következő hónapokban várhatóan eléri a 100 -at. Közülük 24 -et már a kormány és a Big Tech cégek is alkalmaznak az USA -ban. Például a ShotSpotter, az Oaklandi Rendőrkapitányság által a fegyverrel való erőszak elleni küzdelemre és csökkentésére használt algoritmus eszköz a hangfigyelő mikrofonok segítségével, valamint egy algoritmus a potenciális gyermekbántalmazás és elhanyagolás előrejelzésére, amelyet a pennsylvaniai Allegheny megye használ. Egy másik példa egy vállalattól a Rekognition, az Amazon arcfelismerő rendszere, amelyet az MIT Media Lab vizsgált meg 2019 elején, és megállapította, hogy lényegesen rosszabb teljesítményt mutat az egyén nemének azonosításakor, ha nő vagy sötétebb bőrű.

A leggyakoribb megkülönböztetés kor, nem, faj vagy fogyatékosság alapján történik, akaratlanul olyan fejlesztők állították elő, akiknek nincsenek társadalmi -gazdasági készségeik e technológia hatásának megértéséhez. Ebben az értelemben ezek a mérnökök csak technikai ismeretek alapján tervezik meg az algoritmusokat, és mivel nincs külső vezérlés, és úgy tűnik, hogy a várt módon működik, az algoritmus folyamatosan tanul a hiányos adatokból.

Tekintettel az ilyen algoritmusok működésének átláthatóságának hiányára, az Eticas Foundation az OASI elindításától eltekintve külső auditok projektjét dolgozza ki. Az első a VioGén, a spanyol belügyminisztérium által használt algoritmus, amely kockázatot tulajdonít azoknak a nőknek, akik családon belüli erőszak után szenvednek védelmet. Az Eticas külső ellenőrzést végez fordított mérnöki és adminisztratív adatok, interjúk, jelentések vagy tervezési szkriptek segítségével, hogy nagyméretű eredményeket gyűjtsön. Mindezt azzal a céllal, hogy felderítsük ezen nők védelmének javításának lehetőségeit.

„Annak ellenére, hogy léteznek algoritmikus ellenőrzési és ellenőrzési módszerek annak biztosítására, hogy a technológia tiszteletben tartsa a jelenlegi szabályozást és alapvető jogokat, az adminisztráció és sok vállalat továbbra is süket fülekkel fogadja a polgárok és az intézmények átláthatósági kéréseit” - jelentette ki Gemma Galdon, az Eticas Alapítvány alapítója . „Az OASI mellett több év elteltével, amelyek során több mint egy tucat auditot dolgoztunk ki olyan vállalatok számára, mint az Alpha Telefónica, az Egyesült Nemzetek Szervezete, a Koa Health vagy az Amerikai Fejlesztési Bank, közzétettünk egy útmutatót az algoritmusos ellenőrzéshez. hogy bárki végrehajthatja őket. A cél mindig a figyelemfelkeltés, az átláthatóság biztosítása és a technológia iránti bizalom helyreállítása, amelynek önmagában nem kell károsnak lennie. ”

Ebben az értelemben az algoritmusok, amelyek gépi tanulási technikákkal vannak kiképezve, nagy mennyiségű történelmi adatot használva, "megtanítják" őket választani a korábbi döntések alapján. Általában ezek az adatok nem reprezentálják azt a társadalmi -gazdasági és kulturális valóságot, amelyen alkalmazzák őket, de sok esetben olyan tisztességtelen helyzetet tükröznek, amelyet nem szándékoznak megörökíteni. Ily módon az algoritmus technikailag "helyes" döntéseket hozna a képzése szerint, annak ellenére, hogy a valóság az, hogy ajánlásai vagy előrejelzései elfogultak vagy megkülönböztetőek.

Hirdetés

Az Eticas Alapítványról

Az Eticas Alapítvány azon dolgozik, hogy műszaki specifikációkká alakítsa át azokat az elveket, amelyek a társadalmat irányítják, mint például az esélyegyenlőség, az átláthatóság és a megkülönböztetésmentesség, amelyek olyan technológiákban rejlenek, amelyek automatizált döntéseket hoznak az életünkről. Egyensúlyt keres a változó társadalmi értékek, a legújabb fejlesztések technikai lehetőségei és a jogi keret között. Ebből a célból ellenőrzi az algoritmusokat, ellenőrzi, hogy jogi garanciákat alkalmaznak -e a digitális világra, különösen a mesterséges intelligenciára, és intenzív munkát végez a tudatosság növelése és a felelős, minőségi technológia iránti igény terjesztése érdekében.

Ossza meg ezt a cikket:

Az EU Reporter különféle külső forrásokból származó cikkeket közöl, amelyek sokféle nézőpontot fejeznek ki. Az ezekben a cikkekben foglalt álláspontok nem feltétlenül az EU Reporter álláspontjai.

Felkapott