A mesterséges intelligencia (AI) zökkenőmentesen beépült mindennapjainkba, állandó jelenlétté vált, amelyhez gyorsan alkalmazkodtunk.
A munkaerő-kölcsönzési gyakorlattól az egészségügyi és akár a társkereső alkalmazásokig az algoritmikus döntéshozatal csendesen beszőtt a modern élet szövetébe, így a mesterséges intelligencia láthatatlan, mégis erőteljes befolyást gyakorol rutinunkra.
De ahogy a mesterséges intelligencia egyre fontosabb szerepet tölt be mindennapi életünkben, felvetődik egy nyugtalanító kérdés: az AI a báb vagy a bábos?
Ez a kérdés egyre fontosabb, mivel a felhasználók nem feltételezhetik, hogy az algoritmikus döntések mindig semlegesek. A technológia fejlődésével a válasz egyre homályosabbá válik.
Az algoritmikus torzítások – amelyek az általuk betanított adatok egyenlőtlenségéből fakadnak – fenntarthatják, sőt felerősíthetik a marginalizált emberek által tapasztalt rendszerszintű egyenlőtlenségeket.
Például egy 2019-es NIST-tanulmány feltárta, hogy az arcfelismerő rendszerek 10-100-szor jobban azonosítják a fekete és ázsiai arcokat, mint a fehéreket.
A mesterséges intelligencia etikusa és a Justice AI alapítója, Christian Ortiz megjegyzi a LinkedIn oldalán: „A mesterséges intelligencia nem mesterséges. A mesterséges intelligencia csupán örökli az elfogultságokat, és gondos felülvizsgálat nélkül beágyazza azokat a jövőnkbe.”
Mik azok az algoritmikus torzítások az AI-ban?
A „szemet be, szemét ki” kifejezést gyakran használják adatokra és elemzésekre; Algoritmikus torzítás akkor fordul elő, ha egy mesterséges intelligencia modell ferde eredményeket produkál kiegyensúlyozatlan adatok vagy hibás tervezés miatt.
A londoni Black Tech Fest 2024-en Yetunde Dada, a QuantumBlack, AI by McKinsey termékmenedzsmentért felelős vezető igazgatója megosztotta meglátásait az elfogult mesterséges intelligencia valós hatásairól.
„Arról beszélünk, hogy a döntéshozatal a legmagasabb szinten történik, függetlenül attól, hogy kap-e munkát, kölcsönt vagy sem, vagy konkrét döntéseket fontolgatnak. Amit most teszünk, az az emberi döntések automatizálása” – mondta.
„Az egyik példa a téves azonosítás. Ez akkor fordulhat elő, ha egy adatkészletből hiányoznak információk a kisebbségi csoportokról, és ezért nem tudja, hogyan kell megfelelően dönteni.
Black Tech Fest 2023: némi fűszerezés a jelenethez
„Például egy nagy technológiai vállalat készített egy alkalmazást, amely különböző bőrbetegségekre keresi a bőrt, és megadja a történések valószínűségi százalékát – de az alkalmazás adatkészlete nem tartalmazta a fekete bőrt.
„A modell azonnal nagyon pontatlanná válik, ha a fekete bőrtónusokat nézi” – magyarázta.
Dada hozzáteszi, hogy az alkalmazás korábbi orvosi feljegyzéseket használt, így nem a fejlesztők hibája volt, hogy az adatok nem tartalmaztak fekete bőrt. Ugyanakkor azt állítja, hogy az ő felelősségük a javítás.
Dada megemlíti a félrevezetést is, és személyes tapasztalataira hivatkozik egy társkereső alkalmazással, amely elforgatja a profilfotóit, és megmondja, melyik kapja a legtöbb tetszését.
„A legnépszerűbb fotóm volt az egyetlen, amit egy barátommal készítettem, aki véletlenül fehér volt. Talán ez volt a legérdekesebb profilfotó, nem tudom. Különféle okokat kell mérlegelnem, mielőtt bármilyen következtetést levonnék.
„Arra azonban nem számítottam, hogy a szoftver kivág a képből, pedig az alkalmazás tudja, hogy nézek ki.
„A szoftver tervezése során kezdettől fogva a tesztesetekre és az éles esetekre gondol. Miért élünk ebben a vitában? Miért kell hibákat találnunk a rendszerben? Mert nem nekünk tervezték.”
Amikor a vállalkozások rosszul csinálják
2018-ban az Amazon olyan eszközt tervezett, amely az önéletrajzok automatikus kiértékelésével ésszerűsíti a toborzást. Az eszköz elfogultságot alakított ki a nőkkel szemben, mivel tíz éven át készült önéletrajzok alapján készült, amelyeket túlnyomórészt férfiak küldtek be az erősen férfiak által uralt technológiai iparágban.
Az algoritmikus torzítások óriási szakmai következményekkel járhatnak a kisebbségbe szorult egyének számára, mint például a kulturális árnyalatokat félreértelmező marketingalgoritmusok vagy a történelmileg rosszul ellátott közösségeket megbüntető pénzügyi modellek.
A TI-vel folytatott beszélgetés során Hemant Patel, az Anumana adat- és elemzési tanácsadó cég vezérigazgatója leírta, hogy a pénzügyi szolgáltatások gyakran erősítik a társadalmi-gazdasági előítéleteket.
“Tapasztalataim szerint láthatja, hogy a gépi tanulás és az AI hogyan hasznosul a pénzügyi szolgáltató intézmények ügyfélkörében rejlő elfogultság miatt” – mondta, és azt sugallja, hogy a tartózkodási helyre vagy a viselkedésre vonatkozó adatok önbeteljesítő próféciákat hozhatnak létre, amelyek csapdába ejthetik a közösségeket. hátrányos helyzetekben.
„Ez majdnem egy tyúk-tojás helyzet. Vajon ezek az algoritmusok pontosan azt jósolják, hogy a közösségek nem teljesítik a hiteleiket, vagy azért, mert a társadalmi tényezők olyan helyzethez vezettek, amikor ezek a közösségek nem tudnak kitörni a történelmi döntéshozatal normáiból?
Patel kiemeli azokat a rendszerszintű kihívásokat, amelyekkel a mesterséges intelligencia rendszerek szembesülnek, ha történelmileg torzított adatokon tanulnak – ez a kihívás a marketingben is visszhangzik, ahol az elfogult algoritmusok a teljes demográfiai réteg elidegenítését kockáztatják.
Ezek az elfogultságok több mint etikai tévedés a vállalkozások számára – mondja Kiki Punian, az ItoA elérhető mesterségesintelligencia-marketingszoftver alapítója.
„A mesterséges intelligencia torzítása jelentősen befolyásolhatja az ügyfelek lojalitását és a márka hírnevét, és végső soron veszélyeztetheti a hosszú távú üzleti életképességet” – mondja.
„Amikor az AI-algoritmusok elfogult eredményeket produkálnak, fennáll annak a veszélye, hogy megsértik a közönséggel való kapcsolatot, különösen a Z generációval és a Baby Boomer korosztályokkal, akik egyre inkább előtérbe helyezik a sokszínűséget és a befogadást az általuk támogatott márkákban.”
Egy 2022-es Deloitte-jelentés megállapította, hogy a Z generáció és a millenniálisok 57%-a szívesebben vásárol olyan márkáktól, amelyek megfelelnek társadalmi értékeiknek, beleértve a sokszínűséget és a befogadást.
Miért bajlódna az algoritmus dekolonizálásával?
Az egyetlen módja annak, hogy a mesterséges intelligencia pártatlan maradjon, az az, hogy aktívan felszámoljuk a szisztémás torzításokat az adatfeltevések megkérdőjelezésével, az inkluzivitás tervezésbe való beágyazásával és a változatos reprezentáció előtérbe helyezésével.
Sandra Masiliso, a DEPT, egy mesterséges intelligencia elfogadására szakosodott ügynökség globális DEI-vezetője azt mondja: „A jelenlegi adatkészletekben rejlő belső torzítások elismeréséről van szó, amelyek gyakran nem képviselik globális közösségeink sokszínűségét.”
Hozzáteszi: „A dekolonizációs algoritmusok arról szólnak, hogy először felismerjük ezt az egyensúlyhiányt, majd aktívan dolgozunk annak újraformálásán. Ez azt jelenti, hogy a mesterséges intelligencia fejlesztése előtt a kiváló minőségű, reprezentatív adatgyűjtést kell előnyben részesíteni.
„Ahhoz, hogy ez értelmes legyen, be kell vonnunk a közösségek egyéneket az AI-ba és az adatcsapatokba, biztosítva, hogy a megélt tapasztalatok sokfélesége az algoritmusfejlesztés alapjaiba ágyazódjon.”
Újszerű megoldást javasol az adatok diverzifikálására: „Képzeljen el egy olyan keretet, amely hasonló az élelmiszerek tápértékcímkéihez. Az „adatátlátszósági címke” részletezi az adatok minőségét, forrásait és bármely ismert torzítását.
“Ez egy olyan megközelítés, amelyben a politika proaktív szerepet tölthet be, egyértelmű szabványokat szabva az adatok elszámoltathatóságára vonatkozóan.”
Yetunde Dada hozzáteszi, hogy a mesterséges intelligencia dekolonizálásának ügye túlmutat a kockázatcsökkentésen, és a narratívát az innováció és az alkotás lehetőségének tekinti át.
Kiemelte az alulreprezentált csoportok kiszolgálásában rejlő kiaknázatlan lehetőségeket azáltal, hogy párhuzamot vont Rihanna’s Fenty Beauty-jával, amely 43 különböző árnyalatú sminket készített.
„Azt mondta: „Egy olyan csoportot fogok szolgálni, amely történelmileg kimaradt a beszélgetésből. És teljesen megváltoztatta a játékot. Az inkluzivitás ösztönzi az innovációt, és ugyanez vonatkozik az AI-ra is.”
Dada elmagyarázza, hogy az inkluzivitás nem csak etikus; nyereséges, hivatkozva egy McKinsey-tanulmányra, amely szerint a különböző vállalatok átlagosan 36%-kal jobb teljesítményt nyújtanak társaiknál.
Végső soron az algoritmusok dekolonizálása nemcsak erkölcsi, hanem pénzügyi kényszer is, amelyet a vállalkozásoknak nem szabad figyelmen kívül hagyniuk.
Hogyan lehet dekolonizálni az algoritmusokat?
A dekolonizáló algoritmusok nem lehetnek ellenőrzőlista-tevékenységek. Folyamatos, sokrétű erőfeszítésről van szó, amely megköveteli a vállalkozásoktól, hogy minden szakaszban foglalkozzanak az elfogultságokkal – a modellek betanításához használt adatoktól kezdve az azokat felépítő csapatokig.
Peter Wood, a Web3, a kriptográfia és a blokklánc toborzási ügynökség, a Spectrum Search technológiai igazgatója megismételte a változatos adatforrások fontosságát: „A Spectrum Searchnál ügyelünk arra, hogy mindenféle – kulturális, földrajzi és gazdasági – háttérből behozzuk az információkat. így minden hang hallatszik az asztalnál.”
Wood saját tapasztalatairól szólva kifejti: „Egy általunk toborzásra kifejlesztett mesterséges intelligencia-modell korai tesztelése során észrevettünk egy finom tendenciát, amelyben a kevésbé hagyományos oktatási hátterű jelöltek magasabb szintű képzettségi szintjük ellenére alacsonyabb rangsorolást kaptak a technikai szerepekben. és tapasztalat.
„Ez a tapasztalat teljesen megváltoztatta az AI bevezetésével kapcsolatos megközelítésemet. Most ragaszkodom a többrétegű tesztelési fázisokhoz, hogy a méretezés előtt feltárjam a lehetséges torzításokat. Különféle adatkészleteket használunk, alaposan megvizsgáljuk az egyes attribútumoknak adott súlyozást, és folyamatosan figyeljük a mintákat.”
Wood megközelítése hangsúlyozza az aktív éberség fontosságát a mesterséges intelligencia fejlesztésében – ez az elv, amelyet Vaibhav Puranik, a GumGum mesterséges intelligencia-vezérelt kontextuális reklámcég mérnöki alelnöke szerint be kell ágyazni a mesterséges intelligenciát szabályozó tágabb keretek közé.
„Az innovatív technológiai fejlesztések nem történhetnek a társadalom egyetlen részének költségén sem” – mondta Puranik. “A politikáknak biztosítaniuk kell, hogy a mesterséges intelligencia elismerje a történelmi összefüggéseket, kezelje a múltbeli egyenlőtlenségeket, miközben elősegíti a fejlődést.”
„Gondoskodniuk kell arról, hogy az AI-rendszereket a valós világ torzításainak megértésével tervezzék, és meg kell akadályozniuk, hogy a modellek megismételjék vagy felerősítsék ezeket a hibákat. Világos magyarázatot kell követelniük a mesterséges intelligencia döntéseiről, lehetővé téve az érdekelt felek számára a lehetséges torzítások felmérését.”
Dekolonizáció akcióban
Míg az algoritmikus torzítás kihívásai jelentősek, a vállalkozások kézzelfogható megoldásokkal lépnek fel. Iparágakban az algoritmusok dekolonizálására irányuló innovatív erőfeszítések új mércét állítanak fel az inkluzivitás és a méltányosság tekintetében.
A technológiai innováció kritikus szerepet játszik az elfogultság csökkentésében. Kiki Punian elmagyarázza, hogy az magyarázható mesterséges intelligencia (XAI) és az egyesített tanulás két olyan megközelítés, amely egyre nagyobb teret nyer.
„Az magyarázható mesterséges intelligencia növeli az átláthatóságot azáltal, hogy érthetőbbé teszi a döntéshozatali folyamatot az emberek számára, különösen az olyan kritikus területeken, mint az egészségügy.
„A Federated Learning decentralizált adatokat használ a modellek felépítéséhez az adatok központosítása és a magánélet veszélyeztetése nélkül, ami azt jelenti, hogy a modellek különféle forrásokból tanulnak anélkül, hogy központosítanák az érzékeny adatokat.”
Krishna Sai, a SolarWinds technológiai és mérnöki részlegének vezető alelnöke megosztotta, hogyan szereli fel vállalata rendszereit visszajelzési és érvényesítési eszközökkel a negatív felhasználói élmények rögzítésére és kezelésére.
„Az emberi ügynökök felülvizsgálják és finomítják az AI által generált válaszokat, mielőtt elküldenék azokat a végfelhasználónak. Minden észlelt anomáliát dokumentálunk a további finomítások érdekében” – jegyzi meg, hangsúlyozva az emberi felügyelet fontosságát a méltányos eredmények biztosításában.
A Kinhubnál Erika Brodnock vezérigazgató csapata a kulturális torzítások csökkentésére összpontosít azáltal, hogy az uralkodó kulturális normákon túlmutató adatkészleteket épít fel.
„Rendszeresen ellenőrizzük algoritmusainkat, hogy azonosítsuk és enyhítsük a lehetséges kulturális torzításokat” – magyarázta.
„Fenntartjuk a Human-in-the-Loop felügyeletet AI-rendszereink felett, különösen a kritikus döntéshozatali folyamatokban. Ez biztosítja, hogy az emberi ítélőképesség és az etikai megfontolások mindig figyelembe legyenek véve, különösen, ha kulturális árnyalatok is érintettek.”
Brodnock a szándékos toborzás fontosságát is hangsúlyozta.
„Vak toborzási folyamatokat vezettünk be, és aktívan keresünk jelölteket alulreprezentált csoportokból” – mondja.
Hemant Patel erre a pontra kiemelte azokat a rendszerszintű akadályokat, amelyek akadályozzák a hátrányos helyzetű egyéneket abban, hogy belépjenek a technológiai pályára: „A műszaki szerepet betöltő személyeknek csak 8%-a származik hátrányos helyzetből, szemben a lakosság 40-50%-ával.
„A sokszínűség problémája csak fokozódik a technológiai bevezetés előtt álló akadályok miatt.”
E hiányosság orvoslására az Anumana elindította az Anumana Code Academy nevű non-profit programot, amely Python nyelvet tanít hátrányos helyzetű fiataloknak.
„Célunk, hogy korai életkorban felkeltsük az érdeklődést a technológiai karrierek iránt, és lehetőségeket nyissunk az alulreprezentált közösségek számára” – magyarázza Patel.
További információ az AI for Inclusive Business programról itt.