Számítógépes technológia
Az OASI az első keresőmotor, amely megtalálja azokat az algoritmusokat, amelyeket a kormányok és a vállalatok használnak a polgárok számára
- Az Eticas Alapítvány által létrehozott OASI Observatory of Algoritms with Social Impact információkat gyűjt több tucat algoritmusból, amelyeket a közigazgatások és a vállalatok használnak szerte a világon, hogy többet megtudjanak társadalmi hatásukról.
- A cél az, hogy a nyilvánosság számára hozzáférést biztosítsanak a kormányokról és a vállalati algoritmusokról szóló információkhoz, és hogy megismerjék, ki használja, ki fejleszti, milyen fenyegetéseket képviselnek, és ellenőrizték -e, többek között.
- Az algoritmusok elfogultsága és megkülönböztetése általában többek között az életkor, a nem, a faj vagy a fogyatékosság alapján következik be, de az átláthatóság általános hiánya miatt még mindig nem lehet tudni az összes érintett csoportra gyakorolt következményt.
Az Eticas Foundation nonprofit szervezet, amely az algoritmusok és a mesterséges intelligencia (AI) rendszerek felelősségteljes használatát népszerűsíti, létrehozta a Társadalmi Hatású Algoritmusok Obszervatóriumát (OASI). Ez az Obszervatórium bevezet egy keresőmotort, hogy többet tudjon azokról az eszközökről, amelyek fontos automatizált döntéseket hoznak a polgárok, a fogyasztók és a felhasználók számára világszerte.
Jelenleg mind a vállalatok, mind a közigazgatások automatizálják a döntéseket az algoritmusoknak köszönhetően. Azonban, fejlesztése és üzembe helyezése nem követi a külső minőségellenőrzést, és nem is olyan átlátható, mint amilyennek lennie kellene, ami védtelenné teszi a lakosságot. Ezzel a keresőmotorral bárki többet megtudhat ezekről az algoritmusokról: ki fejlesztette ki, ki használja őket, alkalmazási körük, ellenőrizték -e őket, céljaik vagy társadalmi hatásuk és az általuk jelentett veszélyek.
Abban a pillanatban,, Az OASI 57 algoritmust gyűjt össze, de a következő hónapokban várhatóan eléri a 100 -at. Közülük 24 -et már a kormány és a Big Tech cégek is alkalmaznak az USA -ban. Például a ShotSpotter, az Oaklandi Rendőrkapitányság által a fegyverrel való erőszak elleni küzdelemre és csökkentésére használt algoritmus eszköz a hangfigyelő mikrofonok segítségével, valamint egy algoritmus a potenciális gyermekbántalmazás és elhanyagolás előrejelzésére, amelyet a pennsylvaniai Allegheny megye használ. Egy másik példa egy vállalattól a Rekognition, az Amazon arcfelismerő rendszere, amelyet az MIT Media Lab vizsgált meg 2019 elején, és megállapította, hogy lényegesen rosszabb teljesítményt mutat az egyén nemének azonosításakor, ha nő vagy sötétebb bőrű.
A leggyakoribb megkülönböztetés kor, nem, faj vagy fogyatékosság alapján történik, akaratlanul olyan fejlesztők állították elő, akiknek nincsenek társadalmi -gazdasági készségeik e technológia hatásának megértéséhez. Ebben az értelemben ezek a mérnökök csak technikai ismeretek alapján tervezik meg az algoritmusokat, és mivel nincs külső vezérlés, és úgy tűnik, hogy a várt módon működik, az algoritmus folyamatosan tanul a hiányos adatokból.
Tekintettel az ilyen algoritmusok működésének átláthatóságának hiányára, az Eticas Foundation az OASI elindításától eltekintve külső auditok projektjét dolgozza ki. Az első a VioGén, a spanyol belügyminisztérium által használt algoritmus, amely kockázatot tulajdonít azoknak a nőknek, akik családon belüli erőszak után szenvednek védelmet. Az Eticas külső ellenőrzést végez fordított mérnöki és adminisztratív adatok, interjúk, jelentések vagy tervezési szkriptek segítségével, hogy nagyméretű eredményeket gyűjtsön. Mindezt azzal a céllal, hogy felderítsük ezen nők védelmének javításának lehetőségeit.
„Annak ellenére, hogy léteznek algoritmikus ellenőrzési és ellenőrzési módszerek annak biztosítására, hogy a technológia tiszteletben tartsa a jelenlegi szabályozást és alapvető jogokat, az adminisztráció és sok vállalat továbbra is süket fülekkel fogadja a polgárok és az intézmények átláthatósági kéréseit” - jelentette ki Gemma Galdon, az Eticas Alapítvány alapítója . „Az OASI mellett több év elteltével, amelyek során több mint egy tucat auditot dolgoztunk ki olyan vállalatok számára, mint az Alpha Telefónica, az Egyesült Nemzetek Szervezete, a Koa Health vagy az Amerikai Fejlesztési Bank, közzétettünk egy útmutatót az algoritmusos ellenőrzéshez. hogy bárki végrehajthatja őket. A cél mindig a figyelemfelkeltés, az átláthatóság biztosítása és a technológia iránti bizalom helyreállítása, amelynek önmagában nem kell károsnak lennie. ”
Ebben az értelemben az algoritmusok, amelyek gépi tanulási technikákkal vannak kiképezve, nagy mennyiségű történelmi adatot használva, "megtanítják" őket választani a korábbi döntések alapján. Általában ezek az adatok nem reprezentálják azt a társadalmi -gazdasági és kulturális valóságot, amelyen alkalmazzák őket, de sok esetben olyan tisztességtelen helyzetet tükröznek, amelyet nem szándékoznak megörökíteni. Ily módon az algoritmus technikailag "helyes" döntéseket hozna a képzése szerint, annak ellenére, hogy a valóság az, hogy ajánlásai vagy előrejelzései elfogultak vagy megkülönböztetőek.
Az Eticas Alapítványról
Az Eticas Alapítvány azon dolgozik, hogy műszaki specifikációkká alakítsa át azokat az elveket, amelyek a társadalmat irányítják, mint például az esélyegyenlőség, az átláthatóság és a megkülönböztetésmentesség, amelyek olyan technológiákban rejlenek, amelyek automatizált döntéseket hoznak az életünkről. Egyensúlyt keres a változó társadalmi értékek, a legújabb fejlesztések technikai lehetőségei és a jogi keret között. Ebből a célból ellenőrzi az algoritmusokat, ellenőrzi, hogy jogi garanciákat alkalmaznak -e a digitális világra, különösen a mesterséges intelligenciára, és intenzív munkát végez a tudatosság növelése és a felelős, minőségi technológia iránti igény terjesztése érdekében.
Ossza meg ezt a cikket:
-
Dohány5 napja
Miért nem működik az EU dohányzás-ellenőrzési politikája?
-
Közel-Kelet5 napja
Az EU reakciója Izrael Irán elleni rakétacsapására a Gázára vonatkozó figyelmeztetéssel jár
-
Kazahsztán4 napja
Kazahsztán utazása a segélyezetttől az adományozóig: Hogyan járul hozzá Kazahsztán fejlesztési támogatása a regionális biztonsághoz
-
Moldova2 napja
Az Egyesült Államok egykori igazságügyi minisztériuma és FBI-tisztviselői árnyalják az Ilan Shor elleni ügyet