Rodičovské poradenstvo: "umelá inteligencia" používa na hodnotenie opatrovateľov na základe ich histórie sociálnych médií

Obsah:

{title}

Keď Jessie Battaglia začala hľadať novú opatrovateľku pre svojho ročného syna, chcela viac informácií, než mohla získať z vyšetrovania zločineckého zázemia, komentárov rodičov a osobného rozhovoru.

Preto sa obrátila na Predictim, online službu, ktorá používa "pokročilú umelú inteligenciu" na posúdenie osobnosti opatrovateľa a zamerala svoje skenery na tisíce kandidátov tisíce príspevkov Facebook, Twitter a Instagram.

  • Zaujíma vás, prečo pocit mučenia spánku ako mučenie? Je to preto, že je
  • Realita dátumu noci: ako sa to skutočne stane
  • Systém ponúkol automatizovaný "rizikový rating" 24-ročného kandidáta, ktorý povedal, že má "veľmi nízke riziko", že je zneužívateľom drog. Poskytol však mierne vyššie hodnotenie rizika - dva z piatich - na šikanovanie, obťažovanie, "neuctivosť" a "zlý postoj".

    Systém nevysvetľoval, prečo toto rozhodnutie urobil. Ale Battaglia, ktorý veril sitterovi, bol dôveryhodný, zrazu cítil bolesti pochybností.

    "Sociálne médiá ukazujú charakter človeka, " povedal 29-ročný Battaglia, ktorý žije v blízkosti Los Angeles. "Tak prečo prišla na dve a nie na jednu?"

    Spoločnosť Predictim ponúka rodičom rovnakú príručku, ktorú predávajú zamestnávatelia na celom svete desiatky ďalších technologických firiem: systémy inteligentnej inteligencie, ktoré analyzujú prejav osoby, výrazy tváre a online históriu a sľubujú odhalenie skrytých aspektov ich súkromného života.

    Táto technológia pretvára to, ako niektoré spoločnosti pristupujú k náboru, zamestnávaniu a kontrole pracovníkov a ponúkajú zamestnávateľom bezkonkurenčný pohľad na uchádzačov o zamestnanie prostredníctvom novej vlny invazívneho psychologického hodnotenia a dohľadu.

    Technológia Fama tvrdí, že používa AI na policajné sociálne médiá pre "toxické správanie" a varuje svojich šéfov. Firma HireVue, ktorá spolupracuje s firmami ako Geico, Hilton a Unilever, ponúka systém, ktorý automaticky analyzuje tón, voľbu slova a pohyby tváre počas videonahrávok, aby predpovedal ich zručnosti a správanie. (Kandidáti sú vyzvaní, aby sa usilovali o dosiahnutie najlepších výsledkov.)

    Kritici však tvrdia, že Predictim a podobné systémy predstavujú svoje vlastné nebezpečenstvo tým, že sa automatizované a pravdepodobne životom meniace rozhodnutia prakticky nekontrolujú.

    Systémy závisia od algoritmov čiernej schránky, ktoré poskytujú málo podrobností o tom, ako redukovali zložitosť vnútorného života človeka na výpočet cnosti alebo ublíženia. A aj keď Predictimova technológia ovplyvňuje myslenie rodičov, zostáva úplne nepodložená, väčšinou nevysvetliteľná a zraniteľná voči tichým predsudkom o tom, ako by mala vhodná detská postieľka zdieľať, pozerať a hovoriť.

    Existuje to "šialený ponáhľal sa chopiť sa moci AI, aby urobil všetky druhy rozhodnutí bez toho, aby sa zaistil, že je zodpovedný voči ľuďom, " povedal Jeff Chester, výkonný riaditeľ Centra pre digitálnu demokraciu, tech advokátska skupina. "Je to tak, ako ľudia opili digitálny Kool-Aid a myslí si, že je to vhodný spôsob, ako riadiť náš život."

    Prehliadky spoločnosti Predictim analyzujú celú históriu sociálnych médií dieťaťa, ktoré pre mnohých najmladších sediacich môžu pokryť väčšinu svojho života. A účastníci sú informovaní, že v prípade, že to odmietajú, budú pre konkurenčné pracovné miesta veľkou nevýhodou.

    Šéf a spoluzakladateľ Predictim Sal Parsa uviedol, že spoločnosť, ktorá bola spustená minulý mesiac ako súčasť Kalifornskej univerzity v technologickom inkubátore SkyDeck v meste Berkeley, berie etické otázky týkajúce sa používania technológie vážne. Rodičia, povedal, by mali považovať hodnotenie za spoločníka, ktorý "môže alebo nemusí odrážať skutočné atribúty sitteru."

    Ale nebezpečenstvo, že si nájde problémového alebo násilného opatrovníka, dodal, robí AI nevyhnutným nástrojom pre každého rodiča, ktorý dúfa, že svoje dieťa bude v bezpečí.

    "Ak hľadáte hlúpe opatrovateľky na Google, uvidíte práve teraz stovky výsledkov, " povedal. "Tam sú ľudia, ktorí majú buď duševné ochorenie, alebo sa len zrodia zlí. Naším cieľom je urobiť všetko pre to, aby sme ich zastavili."

    Skúška Predictim začína na 24, 99 USD a vyžaduje meno a e-mailovú adresu dieťaťa a jej súhlas na zdieľanie širokého prístupu k účtom sociálnych médií. Dieťa môže odmietnuť, ale rodič je informovaný o jej odmietnutí. V e-maile je opatrovateľka informovaná, že "rodič, ktorý sa o to zaujíma, nebude môcť vás zamestnať, kým túto žiadosť nevyplníte."

    Vedení spoločnosti Predictim tvrdia, že používajú algoritmy na spracovanie jazykov a softvér na rozpoznávanie obrazov, známy ako "počítačová vízia", ​​na posúdenie postáv Facebook, Twitter a Instagram pre dievčatá. Rodič je poskytnutý výlučne a nemá povinnosť oznámiť návštevníkom výsledky.

    Rodičia by sa pravdepodobne mohli pozrieť sami na svojich verejných sociálnych médiách. Počítačom vygenerované správy však sľubujú hĺbkovú inšpekciu rokov online aktivít, ktoré sa prelínajú na jednu číslicu: otrasne jednoduché riešenie nepraktickej úlohy.

    Rizikové ratingy sú rozdelené do niekoľkých kategórií, vrátane explicitného obsahu a zneužívania drog. Začiatočník tiež uviedol, že jeho systém môže hodnotiť opatrovateľky na iných osobnostných rysoch, ako je zdvorilosť, schopnosť pracovať s ostatnými a "pozitívnosť".

    Spoločnosť dúfa, že zvýši počet miliárd dolárov v oblasti "outsourcingu rodičov" a začala inzerovať prostredníctvom plateného sponzorstva rodičovstva a blogov "múmie". Marketing spoločnosti sa silne zameriava na schopnosť odhaľovať skryté tajomstvá a zabrániť "každému rodičovi nočnej mrade", pričom cituje trestné prípady vrátane prípadu opatrovateľky v Kentucky, ktorá bola začiatkom tohto roka obvinená z vážneho zranenia osemmesačnej dievčatky.

    "Keby boli rodičia dievčatky zranení touto opatrovateľkou schopní používať Predictim ako súčasť ich procesu preverovania, " hovorí firemný marketingový dokument, "nikdy by ju nechali osamote svojím drahým dieťaťom."

    Technickí odborníci však tvrdia, že systém vyvoláva vlastné červené vlajky, vrátane obáv, že sa obáva strachu rodičov, aby predávali osobnostné prehľady netestovanej presnosti.

    Oni tiež spochybňujú, ako sú systémy vyškolení a ako zraniteľné by mohli byť nedorozumenie rozmazané významy sediacich sociálnych médií použitie. Pri všetkých vyšetreniach s najvyššou mierou rizika sú rodičom poskytnutý len návrh na pochybné správanie a žiadne špecifické vety, odkazy alebo podrobnosti, ktoré by sa mohli posúdiť samostatne.

    Keď jeden detektív chlapca bol označený za možné šikanovanie správanie, nenarozená matka, ktorá požiadala povedal, že nedokázala povedať, či softvér spozoroval starý filmový citát, pieseň lyriky alebo inú frázu na rozdiel od skutočného jazyka šikanovania.

    Ale Predictim napriek tomu hovorí, že sa pripravuje na celoštátnu expanziu. Vedúci pracovníci spoločnosti Sittercity, online trh s detskými potrebami, navštívili milióny rodičov, uviedli, že spustia pilotný program na začiatku budúceho roka, ktorý predlžuje prediktivované automatizované ratingy na aktuálne spektrum sitterových prehliadok a kontrolu pozadia.

    "Nájdenie sitteru môže prísť s veľkou mierou neistoty, " povedala Sandra Dainora, šéfka produktu Sittercity, ktorá verí, že takéto nástroje by sa čoskoro mohli stať "štandardnou menou" pre hľadanie opatrovateľov online. "Rodičia vždy hľadajú najlepšie riešenie, väčšinu výskumu, najlepšie fakty."

    Washington Post

    Predchádzajúci Článok Nasledujúci Článok

    Odporúčania Pre Mamičky‼