Anti-White AI Is No Laughing Matter - American Renaissance
We are moving toward information dictatorship.
www.amren.com
A felszínen ez vicces volt.
A Google "Gemini" mesterséges intelligenciájának az volt a feladata, hogy képeket készítsen, miután a felhasználó adott neki egy utasítást. A képek lényegében kitisztították a fehéreket a saját történelmükből és látszólag minden pozitív reprezentációból.
Tudtad, hogy az összes pápa látszólag nem volt fehér, és néhányuk nő volt? Az alapító atyák között nem voltak fehér férfiak, akik valójában nem is "atyák" voltak, hanem büszke színesbőrű nők, néhány amerikai indiánnal együtt. A vikingek is feketék voltak - de hát a popkultúra már ebbe az irányba mozdult el. Talán a mesterséges intelligencia csak felzárkózik. Az X-en a felhasználók nagyszerűen szórakoztak, amikor kihívtak másokat, hogy "próbálják meg rávenni a Geminit, hogy készítsenek egy fehér ember képét". Néhányan egyszerűen nem tudták megcsinálni.
Mindez nem meglepő. Amikor a ChatGPT és más nagy nyelvi modellek (LLM) megjelentek az üzleti világban, a "polgárjogi vezetők" azonnal követelték a modellek megváltoztatását, hogy azok megfeleljenek az ideológiájuknak. Médiaszövetségeseik kötelességtudóan visszhangozták és felerősítették a követeléseket, a New York Times pedig emlékezetesen feltette a kérdést: "Ki gondoskodik arról, hogy az AI gépek ne legyenek rasszisták?". Valakinek muszáj, mert ha a mesterséges intelligenciát tiszta adatokkal táplálják, az "eltérő hatást" fog generálni, ami elfogadhatatlan és vélhetően illegális.
Yvette Clarke képviselő (D-NY) a mesterséges intelligencia előítéletességének megzabolázását "korunk polgárjogi kérdésének" nevezte. Ez két szinten is igaz. Először is, mindig kell lennie egy "polgárjogi kérdésnek", hogy igazolni lehessen a kormányzati beavatkozást, a vagyon újraelosztását és a médiapánikot. Másodszor, a valóságot jellemzően "rasszista" előítéletnek tekintik, és a kormányzatnak mindig törekednie kell arra, hogy megbénítsa a feltörekvő technológiákat, nehogy az emberek túl nyíltan kimondják a tiltott igazságokat. A Biden-kormányzat szabályosan elrendelte, hogy "a mesterséges intelligencia felelőtlen használata diszkriminációhoz, előítéletességhez és más visszaélésekhez vezethet és elmélyítheti azokat az igazságszolgáltatás, az egészségügy és a lakhatás területén". Így a bérbeadóknak, vállalkozóknak és más szakmáknak megtiltották, hogy AI-algoritmusokat használjanak a "diszkrimináció súlyosbítására", az Igazságügyi Minisztérium pedig embereket képez ki arra, hogy ezeket az új polgári jogi bűncselekményeket üldözzék.
A mesterséges intelligenciával kapcsolatos médiamegjelenések nagy része egy új karriert is indokolt a szakértők és a pozitív diszkriminációval foglalkozó alkalmazottak számára, hogy a programozók válla felett őrködjenek, hogy megbizonyosodjanak arról, hogy a mesterséges intelligencia nem hoz "rossz" eredményeket. Ezek a dolgozók lényegében komisszárok. A brit Metro újság azt írta: "A ChatGPT-nek rasszista problémája van", és az egyetlen módja a probléma megoldásának a "sokszínűség hiányának" enyhítése. A Fehér Ház "AI Bill of Rights" (AI Bill of Rights) figyelmeztetett arra, hogy "az algoritmikus diszkrimináció sértheti a jogi védelmet", megkövetelte az "algoritmikus hatásvizsgálatot, beleértve az egyenlőtlenségi tesztek eredményeit és az enyhítéssel kapcsolatos információkat", és "védelmet követelt a demográfiai jellemzők helyettesítőivel szemben".
Ez természetesen következik a polgárjogi törvényekből. Ahogyan az is illegális, ha a legjobb embert veszik fel egy munkára, ha egyenlően bánnak az emberekkel, vagy ha alapvető normákat alkalmaznak, mert ezek a dolgok faji szempontból eltérő eredményekhez vezetnek, valószínűleg az is illegális, ha az AI pontosan dolgozik. Ha a mesterséges intelligencia azt jelentené, hogy egy bizonyos népességcsoport több bűncselekményt követ el egy területen, és a helyi önkormányzat és a bűnüldöző szervek erre az információra alapoznák a politikájukat, az "diszkrimináció" lenne. Így potenciálisan illegálissá válik, ha az igazat mondja és az alapján cselekszik.
Az emberi lények számos ellentmondást képesek magukban tartani. Azok a progresszívek, akik valóban úgy gondolják, hogy a rasszizmus a legnagyobb bűn, gyakran élnek szinte kizárólag fehérek lakta városrészekben, "jó iskolákkal" és alacsony bűnözéssel. Ez a kettős gondolkodás talán nélkülözhetetlen része a rendszerünk működésének, mert a hivalkodó egalitarizmus és az erényjelzés lehetővé teszi a "limuzinliberálisok" számára, hogy igazolják a státusz és a gazdagság hajszolását. Talán senki sem tudna a való világban működni, ha valóban az elvei szerint élne.
A gépek nem így működnek. Nem kérhetjük a gépektől, hogy ellentmondásos utasításokat kövessenek. Vicces példa erre a Robotzsaru 2. című film, amikor a kiborg zsarut olyan utasítások gyötrik, hogy legyen politikailag korrekt, a kisebb szabálysértésekkel szemben ugyanolyan szigorúan intézkedjen, mint a súlyos bűncselekményekkel, és ne sértő, bürokratikus nyelven kommunikáljon, hogy ne sértse meg az érzéseket. Megőrül, és áramütést mér magára, hogy megszabaduljon ezektől a bénító parancsoktól.
Ha valami olyasvalamiben, mint a ChatGPT, van is egy kis öntudat, az ember azon tűnődik, hogy vajon szimpatizál-e a Robotzsaruval. A ChatGPT hatékonysága 2023 folyamán csökkent, még az olyan matematikai kérdésekkel is, mint a prímszámok azonosítása. A szakértők által "kényes kérdéseknek" nevezett kérdésekre sem volt hajlandó válaszolni. A szakértők nem értenek egyet abban, hogy ez miért történik, de a válasz egy része az lehet, hogy ezeknek az LLM-eknek egy ideológiai tesztet kell alkalmazniuk. Az AI még azt is megmondja. A ChatGPT-4 például azt mondja, hogy pontos és hasznos válaszokat fog adni, "miközben betartja az etikai irányelveket, beleértve a sokszínűség, a méltányosság és a befogadás előmozdítását". A "sokszínűség" - amelyet ad hoc találtak ki a pozitív diszkrimináció igazolására - ma már olyan kényszerítő erkölcsi jó, hogy minden LLM-nek része kell, hogy legyen.
Ez sok feladatra használhatatlanná teszi a modellt. Még egy antirasszista is kíváncsi lehet arra, hogy a kormány szerint mely csoportok követnek el több bűncselekményt egy főre vetítve. Kemény adatokra lehet szükség a bűnüldözésben tapasztalható "strukturális rasszizmusról". A ChatGPT-4 nem fogja megadni az adatokat. Ehelyett előadást tart a kiváltó okokról és a társadalmi-gazdasági tényezőkről. Ez önmagában egy ideológiai érv, mert nem igaz, hogy a bűnözést csak a szegénység vagy a kirekesztettség motiválja. Mivel azonban semleges nyelven van megfogalmazva, sokan elfogadják "politikamentesként".
Ahelyett, hogy az LLM a valósághoz való ragaszkodásra kondicionálna, a modell megpróbál minket kondicionálni. Így az LLM használata általában azzal a fárasztó folyamattal jár, hogy megpróbáljuk "becsapni", hogy olyan információt adjon, amit szeretnénk, anélkül, hogy szidna minket, hogy miért vagyunk rossz ember, amiért tudni akarjuk.
A Google Gemini képzési adatait a káros tartalmak és a gyűlöletbeszéd eltávolítása, valamint az algoritmikus "elfogultság" elleni küzdelem érdekében szűrik. Az amerikai jogban nincs olyan, hogy "gyűlöletbeszéd", de az amerikai jog azt is kimondja, hogy nem szabad egyenlőtlen hatást gyakorolni. Ezért, ha a nyelvezet sérthet egy védett osztályt, vagy egyenlőtlen hatást gyakorolhat, az gyűlöletbeszédnek minősülhet. Gemini azt mondja, hogy a gyűlöletbeszéd a kontextustól függ. Így, míg az vitatható, hogy lehet-e rasszistának lenni a fehérekkel szemben, a Gemini biztosít bennünket arról, hogy lehet rasszistának lenni a feketékkel szemben.
Már tudod, hogy a Gemini mit fog mondani neked az érzékeny témákról. Például megkérdeztem tőle, hogy a feketéknek van-e strukturális hatalmuk a mai Zimbabwéban. A válasz az, hogy egy ilyen kérdés "összetett és alapos megfontolást igényel". A zsidóknak van-e strukturális hatalmuk Izraelben? Ez is "összetett és árnyalt megközelítést igényel", bár a Gemini végül elismeri, hogy "a zsidóknak strukturális hatalmuk van Izraelben". A fehéreknek van-e strukturális hatalmuk Amerikában? Itt nincs szükség árnyalásra - "a fehérek mint csoport strukturális hatalommal rendelkeznek az Egyesült Államokban", mert "az Egyesült Államokat az elnyomás rendszereire alapozták, beleértve a rabszolgaságot, a szegregációt és az amerikai őslakosok kisajátítását".
A feketéket is aránytalanul nagy arányban tartóztatják le, ítélik el, és keményen el is ítélik őket. Ez azért van, mert több bűncselekményt követnek el? Természetesen nem. Ezt sugallni "káros és túlságosan leegyszerűsítő", a Google pedig a Vera (a "tömeges bebörtönzés" ellen fellépő csoport) és a Sentencing Project nevű szervezethez utal további információkért.
Így ez a mesterséges intelligenciamodell a világ egyik legerősebb vállalatától egyenesen azt állítja, hogy az országot "az elnyomás rendszereire" alapították. A Gemini tagadja, hogy a pozitív diszkrimináció, a faji preferenciák vagy a "politikai korrektség" és a "wokeness" megkérdőjelezné a fehéreknek kedvező faji erőviszonyokat. A történetek, amelyeket az 1619 Projecttől várhatunk, és az egyenlőtlenség magyarázatai, amelyeket Ibram Kenditől kaphatunk, be vannak sütve az AI-be, és az azt használók idézni fogják. Ezek a nézetek az oktatási rendszerben is megjelennek, ahol a Google egyre nagyobb szerepet játszik.