Informacije

Raziskave razkrivajo, da je Googlov detektor sovražnega govora rasno naravnan

Raziskave razkrivajo, da je Googlov detektor sovražnega govora rasno naravnan

Sovražni govor lahko ustvari strupeno okolje za ljudi v spletu in postaja vse večji problem, tako da so platforme družbenih medijev pod vse večjim pritiskom, da se odzovejo.

Vendar je tudi to lahko težava, saj avtomatizirano odstranjevanje te vrste vsebine odpira vrata potencialno več vprašanjem, saj ta rešitev navadno še bolj zatre že tako marginalizirane glasove. Skratka, postopek je zapleten.

POVEZANO: TA AI VEDE TOČNO KAKO LAHKO BISTE RASISTIČNI IN SEKSISTIČNI

Kljub temu se je Google leta 2016 potrudil, da je ustvaril algoritem umetne inteligence, namenjen spremljanju in preprečevanju sovražnega govora na platformah in spletnih mestih družbenih medijev. Vendar je nedavna študija, ki so jo izvedli ljudje z univerze v Washingtonu, pokazala, da je bilo isto orodje rasno pristransko; profiliranje tweetov, ki so jih objavili Afroameričani.

Pristranski detektor sovražnega govora

Zdaj, ko treniramo katero koli orodje za strojno učenje, je pomemben pravi nabor podatkov in algoritem Googlovega sovražnega govora ni bil nič drugačen. Razvijalci podjetja so sestavljali bazo podatkov o več 100,000 tweetov, ki jih je Googlov API z imenom Perspektiva označil za "strupene". Ta strupena vsebina je nato postala vodilna luč za algoritem, pri čemer je s tem, kar se je "naučil", prepoznala in označila "dobro vsebino" in vse, kar je neokusno, nesramno ali nespoštljivo.

Časopis Univerze v Washingtonu je ugotovil, da ima Googlovo orodje sumljivo visoko stopnjo označevanja temnopoltih ljudi, čeprav je bila večina jezika tvitov ugotovljena kot neškodljiva.

Zanimivo je, da ko je bilo orodje preizkušeno 5,4 milijona tweetov ugotovili so, da je orodje dvakrat bolj verjetno označilo objave tistih, ki so jih napisali Afroameričani. Zdi se, da se je Googlovo orodje borilo s tvitami, napisanimi v afroameriški domači angleščini.

Izbira pravih podatkov

Kot rečeno zgoraj, so pravi podatki zelo pomembni. Še bolj pomembno je na področjih, na katerih je udeležena dirka. Splošna težava z Googlovim algoritmom je, da ni imel ustreznega razumevanja in zavedanja o kulturi za pravilno prepoznavanje afroameriške ljudske angleščine. Skratka, AAE ni bil pravilno predstavljen naboru podatkov, kar pa je povzročilo pristranskost.

Rešitev? Kot je navedeno v poročilu, "Uvedli smo narečje in dirkanje na daljavo, dva načina za zmanjšanje pristranskosti opombe s poudarjanjem dialekta tvita v pripisu podatkov in dokazovanje, da znatno zmanjšuje verjetnost, da so tweetovi AAE označeni kot žaljivi."

Ekipa univerze v Washingtonu meni, da je treba posebno pozornost nameniti zmedenim učinkom narečja, da bi se izognili nenamernim rasnim pristranskostim pri odkrivanju sovražnega govora.


Poglej si posnetek: The Grumpy Guide To Class - Part One (Januar 2022).